Seleccione idioma

Spanish

Down Icon

Seleccione país

Mexico

Down Icon

División en las 'Big Tech' por el futuro de la IA

División en las 'Big Tech' por el futuro de la IA

En la portada de su plan de negocio para DeepMind, el laboratorio de inteligencia artificial (IA) que crearon en 2010 Demis Hassabis, Mustafa Suleyman y Shane Legg, escribieron una sola frase: "Crear la primera inteligencia artificial general del mundo".

Su opinión, que sigue siendo válida hoy en día, es que las tecnologías tradicionales de IA eran demasiado "limitadas". Podían actuar de forma brillante, pero sólo después de que los humanos las hubieran entrenado laboriosamente utilizando grandes bases de datos. Eso hacía que la IA fuera excelente en tareas como analizar hojas de cálculo o jugar al ajedrez. Pero la inteligencia artificial general, conocida como IAG (o como AGI por sus siglas en inglés), tenía potencial para ir todavía más lejos.

Quince años después, los consejeros delegados de las empresas tecnológicas están convencidos de que la IAG es el próximo gran avance y se deshacen en elogios sobre su potencial. Entre ellos se encuentra Sam Altman, consejero delegado de OpenAI. Según él, "la IAG podría ayudar a crecer a la humanidad, incrementar la abundancia, acelerar la economía global y contribuir a descubrir nuevos conocimientos científicos".

Hassabis, cuya empresa DeepMind se fusionó con Google para convertirse en uno de los laboratorios de IA más influyentes del mundo, afirma que la IAG tiene potencial para resolver problemas globales como curar enfermedades, hacer que las personas lleven vidas más sanas y longevas y encontrar nuevas fuentes de energía.

Dario Amodei, consejero delegado de Anthropic, que prefiere utilizar la expresión "IA potente" para describir la IAG, opina que probablemente será "más inteligente que un Premio Nobel en su campo más relevante", y la ha descrito como un "país de genios en un centro de datos".

Yann LeCun, director científico de IA de Meta y considerado uno de los "padrinos" de la tecnología, prefiere utilizar el término superinteligencia artificial (SIA), ya que la inteligencia humana realmente no es tan general: "Somos muy especializados y los ordenadores pueden resolver ciertas tareas mucho mejor que nosotros".

Falta de consenso

Independientemente del término que finalmente se elija, cada vez se habla más de una tecnología que antes era mera ciencia ficción y ahora puede hacerse realidad. Pero al igual que Silicon Valley no se pone de acuerdo sobre qué es exactamente la IAG o la SIA, tampoco existe consenso sobre cómo será si se hace realidad o cuándo llegará.

Cuando DeepMind acuñó el término, declaró que la IAG era una "IA que es al menos tan capaz como un adulto cualificado en la mayoría de las tareas cognitivas". Pero esta definición suscita más preguntas: ¿Qué es un adulto cualificado? ¿Cómo sabemos cuándo hemos realizado la mayoría de las tareas cognitivas? ¿Cuáles son esas tareas?

"Para algunos la IAG es un objetivo científico. Para otros es una religión. Y para algunos es un término de márketing", señala François Chollet, antiguo ingeniero de software de Google. En consecuencia, hay un amplio abanico de estimaciones sobre cuándo podría llegar. Elon Musk cree que la tecnología de IA más inteligente que los humanos se hará realidad este mismo año. Amodei, de Anthropic, fija la fecha en 2026. Y Altman, que llegará durante la presidencia de Donald Trump.

OpenAI y Anthropic han conseguido miles de millones de dólares de inversores para desarrollar la tecnología y están respaldadas por los planes de la Casa Blanca de paralizar la regulación de la IA con el fin de adelantarse a China. OpenAI también cuenta con el apoyo de Trump a la hora de invertir en centros de datos en Estados Unidos y Oriente Próximo.

La IAG se mencionó un 53% más de veces en las presentaciones de resultados de las empresas en el primer trimestre de 2025 que en el mismo periodo del año anterior.

Pero definirla es vital para comprender sus repercusiones y si debe ser o no una prioridad.

La UE no descarta suspender su ley sobre IA, en parte por temor a obstaculizar su desarrollo. El Instituto de Seguridad de la inteligencia artificial de Reino Unido está tratando de averiguar qué es la IAG para poder planificar su política y su investigación sobre seguridad.

Incluso en su definición más laxa, la IAG aceleraría enormemente el procesamiento informático, pero a un coste financiero y medioambiental muy elevado. Y si los ingenieros consiguen crear la tecnología, ¿cómo podemos asegurarnos de que se utilizará de forma equitativa y justa?

¿Qué es realmente la IAG?

Para OpenAI, es una tecnología que puede utilizarse para realizar un trabajo que aporte beneficios económicos. "Intentamos desarrollar un sistema altamente autónomo que pueda superar a los humanos en muchas tareas de valor económico", afirma Mark Chen, director de investigación de la empresa. Según él, una característica clave es la generalidad, la capacidad de realizar tareas en una amplia variedad de ámbitos: "Debe ser bastante autónoma y no necesitar mucha ayuda para realizar sus tareas. La IAG será capaz de hacer realidad lo que tenemos en la cabeza rápidamente y tiene el potencial de ayudar a la gente a crear no sólo imágenes o textos, sino aplicaciones enteras".

Pero los críticos sostienen que esta definición se queda corta para describir un sistema verdaderamente inteligente. "Eso no es más que automatización, algo que llevamos haciendo durante décadas", afirma Chollet, el antiguo ingeniero de Google.

Legg, de DeepMind, tienen una opinión diferente: "Creo que el rendimiento humano típico es la forma más natural, práctica y útil de definir los requisitos mínimos para que una inteligencia artificial se considere una IAG. Un gran problema de muchas definiciones de la IAG es que no especifican con suficiente claridad lo que un sistema de IA debe ser capaz de hacer para ser considerado una IAG".

Para DeepMind, debe ser "tan capaz como un adulto experto para realizar la mayoría de las tareas cognitivas. Si las personas pueden realizar habitualmente una labor cognitiva, la inteligencia artificial debe ser capaz de hacerla para ser una IAG", señala Legg.

El laboratorio, propiedad de Google, ha establecido cinco niveles de capacidades de la IAG. Modelos de IA como ChatGPT de OpenAI, Gemini de Google y Llama de Meta sólo alcanzarían el nivel uno, o "IAG emergente". Hasta ahora, ningún modelo general ha alcanzado el nivel dos, que le permitiría superar al menos el percentil 50 de los adultos cualificados, afirma Allan Dafoe, director de seguridad fronteriza y gobernanza de DeepMind.

El nivel tres requeriría que el modelo fuera tan bueno como al menos el percentil 90 de adultos cualificados, el nivel cuatro requeriría el percentil 99 y el nivel cinco, la IA sobrehumana o superinteligencia artificial, superaría al 100% de los humanos.

¿Cuál es la hoja de ruta?

Si no hay acuerdo sobre el objetivo, no es de extrañar que haya muchas teorías sobre cuál es el mejor camino hacia la IAG. OpenAI y Anthropic sostienen que los modelos lingüísticos que están creando representan la mejor ruta. Su idea es que cuantos más datos y potencia de cálculo se aporten al modelo, más "inteligente" será.

La start up creadora de ChatGPT acaba de presentar su nuevo modelo de "razonamiento" o3, que resuelve tareas más complejas de codificación, matemáticas y reconocimiento de imágenes. Algunos expertos opinan que esa es la tecnología más cercana a la IAG, como el economista Tyler Cowen.

Para Chen, el siguiente paso hacia la IAG sería crear modelos capaces de actuar de forma independiente y fiable. Después, las herramientas de IA podrían producir innovación y, por último, actuar como organizaciones similares a grandes estructuras de humanos trabajando juntos.

Otra característica clave sería la autosuperación. "Es un sistema que puede mejorarse a sí mismo, escribir su propio código y generar la siguiente versión de sí mismo, lo que lo hace aún mejor", añade Chen. Pero críticos opinan que los modelos lingüísticos tienen innumerables puntos débiles. Siguen siendo muy imprecisos, inventan cosas y no "piensan" realmente, sino que se limitan a predecir la siguiente palabra probable de una frase.

Según un artículo muy debatido de investigadores de Apple, la nueva generación de modelos de razonamiento se limita a crear la ilusión de que piensan y su precisión decae considerablemente cuando se les presentan tareas complejas. Algunos expertos también afirman que el lenguaje por sí solo no puede captar todas las dimensiones de la inteligencia y que hay que crear modelos más amplios para incorporar más dimensiones.

LeCun, de Meta, está creando "modelos mundiales", que intentan encapsular la física de nuestro mundo aprendiendo de vídeos y datos robóticos, en lugar del lenguaje. Sostiene que necesitamos una comprensión más holística del mundo para crear una IA superior.

Posibles problemas

El sector de la IA se está quedando sin datos, tras haber conseguido la mayor parte de ellos de Internet. A pesar de ello, Altman declaró en diciembre que "la IAG se hará realidad antes de lo que la mayoría de la gente piensa y que importará mucho menos de lo que se cree. Nuestro próximo objetivo es preparar a OpenAI para lo que vendrá después, la superinteligencia".

Según críticos de la IAG, esta diversidad de opiniones pone de manifiesto las verdaderas motivaciones de las empresas. Nick Frost, cofundador de la start up de IA Cohere, opina que "la IAG es sobre todo una burbuja que está consiguiendo capital a partir de esa idea". Y Antoine Moyroud, socio de Lightspeed Ventures, una firma de capital riesgo que ha invertido en empresas como Anthropic y Mistral, señala que "con la IAG, los inversores no sólo tienen la esperanza de obtener unos ingresos de cientos de millones de dólares, sino también la perspectiva de transformar la forma en que generamos el PIB, lo que podría generar unos resultados de billones de dólares. Por eso hay gente dispuesta a asumir el riesgo de la IAG".

Otras cuestiones

Cada vez son más las personas que recurren a los chatbots de IA en busca de amistad, compañía e incluso terapia. Pero esto sólo es posible por la inmensa cantidad de trabajo humano que permite que los chatbots de IA parezcan más inteligentes -o sensibles- de lo que realmente son.

Hay quien se pregunta si la IAG será algo bueno. "La biología, la psicología y la educación aún no han llegado a comprender del todo la inteligencia", afirma Margaret Mitchell, directora de ética de la empresa de IA de código abierto Hugging Face y coautora de un artículo en el que defiende que la IAG no debe considerarse una estrella polar. Expertos afirman que este afán por desarrollar un determinado tipo de tecnología concentra el poder y la riqueza en una pequeña minoría de personas y se aprovecha de artistas y creadores cuya propiedad intelectual acaba en conjuntos masivos de datos sin su consentimiento y sin que reciban ninguna compensación.

La IAG también conlleva una enorme huella medioambiental, ya que los modelos cada vez más potentes requieren toneladas de agua y energía para entrenarlos y que funcionen en enormes centros de datos. También incrementa el consumo de productos altamente contaminantes, como el petróleo y el gas .

Además, plantea cuestiones éticas y posibles daños sociales. En la carrera por desarrollar la tecnología y beneficiarse de sus ventajas económicas, los gobiernos están descuidando la regulación que ofrecería protecciones básicas frente a las tecnologías de IA, como el sesgo algorítmico y la discriminación.

También hay una minoría influyente -que incluye a investigadores considerados los padres fundadores de la IA moderna, como Yoshua Bengio y Geoffrey Hinton- que advierten de que, si no se controla, la IAG podría llevar a la extinción humana.

Uno de los peligros de la idea de la "IAG a toda costa" es que puede potenciar la mala ciencia, afirma Mitchell. Otras materias más consolidadas, como la química y la física, disponen de métodos científicos que permiten realizar pruebas rigurosas. Pero la informática es un campo mucho más nuevo y mucho más centrado en la ingeniería, con tendencia a hacer "afirmaciones maravillosas y generales que en realidad no están respaldadas por la investigación". Y Frosst, de Cohere, advierte que "los políticos y las empresas tienen la responsabilidad de reflexionar sobre los riesgos reales de las tecnologías potentes".

Pero la creación de formas fiables de medir y evaluar las tecnologías de inteligencia artificial en el mundo real se ve obstaculizada por la obsesión del sector con la IAG. "Hasta que no consigamos eso, la IAG no será más que una ilusión y una palabra de moda", concluye Mitchell.

© The Financial Times Limited [2025]. Todos los derechos reservados. FT y Financial Times son marcas registradas de Financial Times Limited. Queda prohibida la redistribución, copia o modificación. EXPANSIÓN es el único responsable de esta traducción y Financial Times Limited no se hace responsable de la exactitud de la misma.

Expansion

Expansion

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow