Inteligencia artificial: evolución continua

La inteligencia artificial se empezó a desarrollar en los años 50 del siglo pasado y desde entonces el concepto ha ido evolucionando y tomando nuevos significados. En un inicio la inteligencia artificial hacia referencia al sueño de construir máquinas capaces de razonar al estilo de los humanos, lo que se conocía como inteligencia artificial fuerte. Por otro lado también podemos hacer referencia a la inteligencia artificial débil o estrecha que se refiere a la capacidad de una máquina de resolver un tipo concreto o específico de problema, como puede ser el caso del ordenador que es capaz de jugar al ajedrez mejor que los humanos, pero no son capaces de realizar otra tareas para las que no están previamente entrenados.


Por otro lado tenemos otro aspecto o rama de la inteligencia artificial, el aprendizaje automático. Consiste, básicamente, en que el ordenador vaya adquiriendo conocimientos mediante la experiencia supervisada. Con la ayuda de perceptrónes, que son redes neuronales artificiales, utilizando ejemplos y valiéndose del error cometido para afinar las respuestas se consigue que el ordenador o la máquina adquiera conocimiento y sea capaz de resolver ciertos tipos de problemas. En realidad la toma de decisiones se apoyan en pautas o algoritmos diseñados por los humanos.

Por último tenemos el deep learning o el aprendizaje profundo que se a desarrollado a medida que ha ido creciendo la capacidad computacional de los ordenadores. En esta disciplina se abandona el aprendizaje dirigido y se le deja a la máquina que aprenda por si sola con la ayuda de redes neuronales artificiales multicapa. El sistema va analizando los datos en función de lo que ya conoce y de lo que infiere de los nuevos datos y hace predicciones.

Las críticas que se le hacen aprendizaje profundo son muchas. Se dice que no tiene la capacidad de transferencia, es decir la máquina no es capaz de utilizar un conocimiento ya adquirido si se le cambia el contexto. Capacidad que los humanos poseemos y nos ayuda a utilizar conocimientos de una área en otros facilitando en aprendizaje y haciéndolo mas eficiente. El deep learning no se aprovecha del conocimiento previo ya que, como ya hemos mencionado, no puede o tiene dificultades para transferir conocimiento. Las redes neuronales artificiales no son buenos infiriendo información. No suele estar muy claro cuales suelen ser los procedimientos y los razonamientos en las propuestas del sistema, por lo que en numerosas ocasiones producen desconfianza. No distingue correlación y causalidad. La máquina no es capaz de concebir un mundo en continuo cambio y asume el mundo como estable e inmutable y toma decisiones con esa premisa. Otro error en el deep learning es el peligro de adquirir sesgos. Como el conocimiento lo adquiere, en muchas ocasiones, de la big data disponible en la red en conocimiento incorpora sesgos de género o de raza presentes en la sociedad y el sistema no es capaz de discriminarlos.

El mayor problema, en mi opinión, puede llegar cuando una máquina sea quien tome las decisiones por nosotros y nosotros no seamos capaces de incluso ni comprender los razonamientos utilizados en en esa toma de decisión.


Referencias:

https://elpais.com/retina/2017/04/14/tendencias/1492164762_707652.html

https://www.hpe.com/es/es/what-is/deep-learning.html?jumpid=ps_7mkgnatquf_aid-520061736&ef_id=Cj0KCQiA9OiPBhCOARIsAI0y71B2rzVV1g39L2ZWGpR01iPfM13vq5i3kH-vrdL3WDG5nDPpPhc5rLsaAsCOEALw_wcB:G:s&s_kwcid=AL!13472!3!569614743352!e!!g!!what%27s%20deep%20learning!14805571337!136796167091&

https://www.datanalytics.com/2020/01/30/deep-learning-una-evaluacion-critica/

https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf


Imagen:

https://www.iartificial.net/wp-content/uploads/2019/02/IA.webp


Comentarios

Entradas populares de este blog

Ciencia: ¿de lo general a lo particular, o viceversa?

Los Algoritmos de Google