El debate que sacudió Davos: la inteligencia artificial general podría superar a los humanos en cinco años
Previsiones de expertos en el Foro Económico Mundial
Las recientes intervenciones de Dario Amodei, CEO de Anthropic, y Demis Hassabis, CEO de Google DeepMind, en el World Economic Forum, sugieren que la inteligencia artificial general (IAG) podría superar las capacidades humanas en un plazo de entre uno y cinco años.
Un momento crítico: la "adolescencia tecnológica"
Ambos expertos enfatizaron que este avance representa desafíos urgentes que requieren un manejo técnico riguroso y cooperación internacional. Describieron el momento actual no como una evolución tecnológica ordinaria, sino como una “adolescencia tecnológica” crucial para la supervivencia de la especie.
Predicciones sobre la superación de la inteligencia humana
Amodei afirmó que la predicción de que para 2026 o 2027 existirá un modelo capaz de igualar el rendimiento de un Premio Nobel no es descabellada. Explicó que el progreso se basa en un ciclo en el que la IA contribuye a la creación de la siguiente generación de modelos.
La velocidad de este avance es evidente: ingenieros de Anthropic ya no escriben código directamente, sino que lo generan con la IA y se dedican a la edición.
Amodei estima que en solo 6 o 12 meses, los modelos podrán realizar la labor de un ingeniero de software de principio a fin.
Estimaciones y desafíos de Google DeepMind
Hassabis mantuvo su estimación de un 50% de probabilidad de alcanzar la IAG para finales de la década. Reconoció los avances en codificación y matemáticas, pero advirtió que las ciencias naturales presentan mayores obstáculos debido a la necesidad de verificación experimental física.
Según Hassabis, la IA aún no posee la capacidad de generar hipótesis originales, lo que considera el “nivel más alto de creatividad científica”.
Cambios en la industria y liderazgo de Google DeepMind
El debate también reveló un cambio en la jerarquía de la industria. Hassabis afirmó que Google DeepMind ha recuperado su posición como líder en modelos avanzados con el lanzamiento de Gemini 3.
Subrayó que han logrado adoptar una mentalidad de startup dentro de la organización para acelerar la innovación.
El auge de los laboratorios independientes
Amodei defendió la viabilidad de los laboratorios independientes, destacando un crecimiento de ingresos significativo: de 100 millones en 2023 a 1.000 millones en 2024, con una proyección de 10.000 millones para 2025.
El factor clave del éxito: la investigación científica
Ambos líderes coincidieron en que las empresas que prosperarán serán aquellas lideradas por investigadores enfocados en resolver problemas científicos complejos.
Riesgos asociados a la IAG
Los riesgos vinculados a la IAG fueron un tema central de la conversación. Amodei criticó la venta de semiconductores avanzados a adversarios geopolíticos, comparándola con la entrega de armas nucleares a Corea del Norte.
Alertó sobre el bioterrorismo y la falta de preparación institucional, insistiendo en que la rapidez del avance exige una atención urgente.
Impacto económico y el futuro del empleo
Amodei reiteró que hasta la mitad de los empleos de oficina para principiantes podrían desaparecer en un plazo de uno a cinco años.
Hassabis coincidió en que ya se observa una ralentización en la contratación de pasantes, pero recomendó a los jóvenes desarrollar habilidades excepcionales en el uso de estas herramientas para superar la obsolescencia de la formación tradicional.
La pérdida de propósito y la necesidad de una nueva distribución de la riqueza
El mayor temor de Hassabis reside en la pérdida de significado y propósito en un mundo donde la productividad ya no sea la prioridad. Aunque se muestra optimista sobre la capacidad de la humanidad para encontrar nuevas formas de realización, como la exploración espacial, advirtió sobre la falta de reflexión institucional sobre cómo distribuir la nueva riqueza de forma equitativa.
Reflexiones filosóficas: la Paradoja de Fermi
La charla tomó un giro filosófico al abordar la Paradoja de Fermi, que cuestiona la ausencia de vida inteligente en el universo.
Hassabis rechazó la idea de que otras civilizaciones se hayan autodestruido al alcanzar la IAG.
Su teoría es que, como especie, ya podríamos haber superado los “grandes filtros evolutivos” y que el futuro dependa de nuestra gestión.
El punto crítico: la IA que diseña IA
Ambos líderes coincidieron en que el punto crítico será observar los sistemas de IA capaces de diseñar otros sistemas, un desarrollo que determinará si la humanidad entra en una era de progreso o de crisis.