¿Se acerca el invierno de la inteligencia artificial generativa?
Las empresas buscan un modelo de negocio y superar cuellos de botella
Desde finales de 2022, la inteligencia artificial generativa se ha convertido en la principal tendencia tecnológica, en parte gracias a sus productos más populares, como ChatGPT de la empresa Open.IA o Gemini de Google. Básicamente, se trata de servicios y aplicaciones capaces de generar contenidos a petición del usuario, entendiendo como tales un texto, una imagen, un vídeo e incluso líneas de código de programación. El algoritmo que mueve los hilos de estos ingenios se nutre de la información que existe en internet para confeccionar una pieza que responda a las necesidades del usuario.
Quizá el éxito masivo de estos modelos -se conocen como Large Language Models (LLM)- haya sido que utilizan en su mayoría el lenguaje natural para comunicarse con el usuario, de manera que no hace falta tener conocimientos de programación para manejarlos. Salvando las distancias, este fenómeno recuerda la llegada al gran público del entorno gráfico de Windows, que hizo posible que entrase en cada hogar un ordenador personal fácil de manejar sin el engorro de tener que aprenderse cantidades de farragosos comandos, como exigían los programas de MS-DOS.
Ahora bien, parece que, a pesar de sus bondades, el futuro de esta tecnología presenta nubarrones en el horizonte, muchos y muy negros, y ya las voces más pesimistas hablan de que se aproxima un nuevo invierno de la inteligencia artificial. Esta metáfora estacional hace alusión a que la inteligencia artificial generativa puede estar llegando a una situación problemática cuando no cumple con las expectativas y se pone en cuestión su viabilidad y rentabilidad, de forma que la investigación y el desarrollo en este campo se frena en seco, como ha ocurrido varias veces en el pasado. A modo de resumen, los LLMs se enfrentan en la actualidad a obstáculos de distinta índole: sus propias limitaciones, un modelo de negocio más que discutible, las dudas sobre su verdadera utilidad y su impacto energético y ambiental.
A pesar de que la inteligencia artificial generativa se nos presenta a menudo como la antesala de la inteligencia artificial general, es decir, aquella que realmente emula las funciones del cerebro humano, existen opiniones muy críticas sobre su eficacia. Por ejemplo, Gary Marcus, un conocido experto en este campo, pone en duda su fiabilidad pues afirma que, para una misma pregunta, a veces da información correcta, otras veces no. Además, presenta lo que en la jerga del sector se conoce como alucinaciones, se inventa información y no hay ninguna señal que avise de que se está inventando algo. Otros expertos de la línea más crítica opinan que ChatGPT no es más que un juguete para hacer trabajos de clase y, como mucho, trabajos de fin de carrera.
Otro de los retos a los que se enfrentan las compañías desarrolladoras de estos productos es el de cómo salir de los números rojos. Por un lado, el entrenamiento de los modelos es sumamente costoso, entre sistemas, software y personal implicado, y, por otro, la forma de generar ingresos no está del todo clara. Un reciente informe plantea que Open.AI, la empresa que ha desarrollado ChatGPT, podría tener unas pérdidas operativas de cinco mil millones de dólares.
El problema de la rentabilidad está directamente relacionado con su utilización por profesionales y empresas, pues parece ser que no satisface las expectativas creadas y muchos usuarios no vuelven a estos productos tras probarlos. Volviendo a ChatGPT, paradigma de esta tecnología, aunque es un logro que en sólo dieciocho meses casi un tercio de la población de los países desarrollados lo haya probado, lo cierto es que la mayoría no lo encontró de utilidad -todavía- de acuerdo con unos datos de Reuters Institute.
Por otro lado, la inteligencia artificial generativa se le ha vendido a la empresa como una fuente de productividad, pero lo cierto es que ese aumento tarda en llegar, y de hecho, una encuesta realizada a compañías de Estados Unidos, Reino Unido, Australia y Canadá pone en evidencia que casi la mitad de los empleados que utilizan esta tecnología no saben cómo conseguir las ganancias de productividad prometidas, y el 77% de los mismos afirma que la productividad ha descendido y que la inteligencia artificial les añade carga de trabajo y no al contrario. En este sentido, podemos encontrarnos ante un nuevo caso de paradoja de Solow, y a lo mejor es cuestión de tiempo que veamos la productividad florecer.
El último cuello de botella al que se enfrenta el crecimiento de los LLM es el de su desmedido consumo energético, tanto el que se dedica a su entrenamiento, como el asociado a la respuesta a consultas de los usuarios. Para hacerse una idea, el entrenamiento de ChatGPT-3 consumió a grandes rasgos una cantidad de electricidad equivalente al de una familia media estadounidense durante 120 años.
Las expectativas sobre la inteligencia artificial generativa, después del gran momento de subidón que han conocido parecen estar desinflándose. Ya veremos a lo largo de los próximos meses si esta tecnología es capaz de superar sus problemas o si se hunde en la sima de la desilusión, utilizando terminología de Gartner.
Escribe tu comentario