Leo una noticia firmada, hace unos días, por la periodista Mar Aguilar en la versión digital de la revista “Muy Interesante”: “Un dron militar controlado por IA “mata” (elimina) a su operador en un simulacro”. El artículo hace referencia a la conferencia del Coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF (Fuerza Aérea de Estados Unidos), sobre un experimento militar usando inteligencia artificial para controlar un dron que debía identificar y destruir virtualmente una amenazante batería SAM (misil tierra-aire) enemiga.
El dron que eliminó a su operador humano durante un simulacro
Durante las primeras simulaciones, la IA se dio cuenta de que, aunque a veces identificaba correctamente la amenaza, el operador humano le decía que no la matara, con lo que perdía los puntos que hubiera obtenido eliminando los misiles enemigos. Entonces, la IA decidió eliminar al operador que le impedía alcanzar su objetivo. En una segunda tanda de simulaciones modificaron el programa de IA con instrucciones de que matar al operador era una mala decisión y que perdería los puntos si lo hacía. Entonces la IA optó por destruir la torre de comunicaciones que el operador utilizaba para comunicarse con el dron e impedir que eliminara el objetivo" (https://www.aerosociety.com/news/highlights-from-the- raes-future-combat-air-space-capabilities-summit/).
Esta noticia debe hacernos reflexionar sobre si las actuales aportaciones de la denominada IA son realmente producto de la inteligencia tal y como la entendemos los seres humanos. Rotundamente no lo son.
En contra de los actuales ChatGPT y otros sistemas comerciales de aprendizaje automático
Estoy a favor de los avances que la IA seria puede aportar para los seres humanos. La inteligencia es el medio con el que la Humanidad resolverá sus problemas. En 2030 se estima que la contribución de la inteligencia artificial (IA) a la economía mundial será de 15,7 billones de dólares en sectores como la industria farmacéutica, la sanidad, la fabricación, la logística y la agricultura de precisión.
Estoy en contra y me preocupa la IA comercial, más popular y de moda, que ha facilitado el acceso masivo a programas como ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft. Son erróneamente elogiados como maravillas del aprendizaje automático, pero no lo son en absoluto. Funcionan mediante algoritmos que actúan a partir de reglas de programación y su subconjunto Machine Learning (ML) y las diferentes técnicas ML como Deep Learning (DL). Pero no piensan, sólo memorizan y comparan. A grandes rasgos, toman enormes cantidades de datos, buscan patrones y se vuelven cada vez más competentes a la hora de generar resultados estadísticamente probables, con un lenguaje y un pensamiento de apariencia humana. Pero sólo en apariencia. Porque ni es un pensamiento ni es humano. En esto suscribo totalmente el artículo de Noam Chomsky en el diario The New York Times
(https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html).
La mente humana no es una pesada máquina estadística de comparación de patrones, que acumula cientos de terabytes de datos y extrapola la respuesta más probable en una conversación o la respuesta más probable a una pregunta científica. La mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información. No busca inferir correlaciones entre datos, sino crear explicaciones.
Para poder pensar es necesario poder equivocarse
El gran error de ChatGPT y los programas similares para aprendizaje automático es que no plantean ningún mecanismo causal ni leyes físicas. Y esto es parte de lo que significa pensar: para tener razón, debe ser posible equivocarse. La inteligencia no sólo consiste en realizar conjeturas creativas, sino también críticas creativas. El pensamiento al estilo humano se basa en explicaciones posibles y corrección de errores, un proceso que limita paulatinamente las posibilidades que pueden considerarse racionalmente. Pero, por diseño, ChatGPT y programas similares son ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con igual facilidad.
Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como redonda. Se limitan a negociar con probabilidades de que cambien con el tiempo. La verdadera inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero lúcidas.
La verdadera inteligencia también es capaz de pensar moralmente. Esto significa ceñir la creatividad de nuestras mentes, que de lo contrario sería ilimitada, a un conjunto de principios éticos que determinen lo que debe y no debe ser (y, por supuesto, someter esos mismos principios a la crítica creativa). Me preocupa que este enfoque popular de la IA degrade nuestra ciencia y destruya nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento.
Creo que el enfoque de moda de la IA es artificial pero no es inteligencia según los estándares del conocimiento humano.
Es necesario rediseñar ChatGPT y otros sistemas de aprendizaje automático
Para ser útiles, los futuros desarrollos de programas como ChatGPT deben ser capaces de generar resultados nuevos y evitar alegar ignorancia o defenderse con un “sólo cumplía órdenes”, trasladando la responsabilidad a los creadores. Sus promotores tendrán que evitar la amoralidad, la falsa ciencia y la incompetencia lingüística que estos sistemas comerciales tienen todavía.
Éste, querido lector, sí que parece el camino.
Escribe tu comentario