El debate que sacudió Davos: la inteligencia artificial superaría a los humanos en cinco años
Las previsiones recientes de Dario Amodei (CEO de Anthropic) y Demis Hassabis (CEO de Google DeepMind) en el World Economic Forum sugieren que la inteligencia artificial podría superar las capacidades humanas en un horizonte de entre uno y cinco años.
Ambos expertos insistieron en que este avance plantea desafíos urgentes que deben manejarse con rigor técnico y cooperación internacional, describiendo el momento actual no como una evolución tecnológica normal, sino como una "adolescencia tecnológica" crítica para la supervivencia de la especie.
La carrera hacia el "nivel Nobel"
"No creo que esa predicción vaya a estar muy lejos de la realidad", afirmó Amodei al ser consultado sobre su estimación de que para 2026 o 2027 existiría un modelo capaz de hacer todo lo que un humano logra a nivel de un Premio Nobel. El directivo explicó que el motor de este avance es un ciclo donde la IA ya ayuda a crear la siguiente generación de modelos.
La velocidad de este salto es tangible: "Tengo ingenieros en Anthropic que ya no escriben código; dejan que el modelo lo haga y ellos solo editan". Amodei estimó que estamos a solo 6 o 12 meses de que los modelos realicen la labor de un ingeniero de software de extremo a extremo.
Ambos expertos advierten sobre desafíos y riesgos urgentes que exigen rigor técnico y cooperación internacional para un desarrollo seguro de la inteligencia artificial general (Captura de video).
Por su parte, Hassabis mantuvo su estimación de un 50% de probabilidades de alcanzar una IAG (inteligencia artificial general) para finales de la década. Aunque reconoció el progreso en codificación y matemáticas, advirtió que las ciencias naturales imponen obstáculos mayores debido a la necesidad de verificación experimental física.
Para Hassabis, la IA aún carece de la capacidad de generar hipótesis originales, lo que calificó como el "nivel más alto de creatividad científica".
El liderazgo de Google y el crecimiento de Anthropic
El debate también dejó ver un cambio en la jerarquía de la industria. Tras un año de intensas comparaciones con otros competidores, Hassabis afirmó que Google DeepMind ha vuelto a la cima de los modelos más avanzados con el lanzamiento de Gemini 3. Subrayó que han logrado recuperar la mentalidad de startup dentro de la organización para acelerar sus ciclos de innovación.
Amodei defendió la viabilidad de los laboratorios independientes, revelando un crecimiento de ingresos vertiginoso: de 100 millones en 2023 a 1.000 millones en 2024, y una proyección de 10.000 millones para 2025.
Ambos líderes coincidieron en que las empresas ganadoras serán aquellas lideradas por investigadores cuyo objetivo principal sea resolver problemas científicos complejos.
Riesgos geopolíticos: los chips como "armas nucleares"
Los riesgos vinculados a la IAG ocuparon el centro de la conversación. Amodei fue tajante al criticar la venta de semiconductores avanzados a adversarios geopolíticos, comparándolo con la decisión de "vender armas nucleares a Corea del Norte" por simples beneficios empresariales.
Alertó sobre el bioterrorismo y la falta de instituciones preparadas, insistiendo en que la rapidez del avance constituye una crisis que requiere casi todo nuestro esfuerzo de pensamiento actual.
El mercado laboral y la crisis de propósito
En cuanto al impacto económico, Amodei reiteró que hasta la mitad de los empleos de oficina para principiantes podrían desaparecer en un horizonte de uno a cinco años.
Hassabis coincidió en que este año ya se percibe una ralentización en la contratación de pasantes, pero recomendó a los jóvenes volverse "increíblemente competentes" en el uso de estas herramientas para superar el valor de una formación tradicional.Hassabis señala que la generación de hipótesis originales y la verificación experimental en ciencias naturales siguen siendo retos para la IAG (Captura de video).
Hassabis señala que la generación de hipótesis originales y la verificación experimental en ciencias naturales siguen siendo retos para la IAG (Captura de video).
Sin embargo, el mayor temor de Hassabis reside en la pérdida de significado y propósito en un mundo donde la productividad ya no sea la prioridad. Aunque es optimista en que la humanidad encontrará nuevas formas de realización, como la exploración espacial, advirtió sobre la falta de reflexión institucional sobre cómo distribuir esta nueva riqueza de forma justa.
La paradoja de Fermi y el futuro de la Especie
Hacia el final, la charla tomó un giro filosófico basado en la Paradoja de Fermi, que cuestiona la ausencia de vida inteligente en el universo. Hassabis rechazó la idea de que otras civilizaciones se hayan destruido inevitablemente al alcanzar la IAG.
Su teoría es que, como especie, es posible que ya hayamos superado los "grandes filtros evolutivos" y que ahora el futuro dependa de nuestra gestión. Finalmente, ambos coincidieron en que el punto crítico será observar los sistemas de IA capaces de diseñar otros sistemas, un desarrollo que definirá si la humanidad entra en una era de maravillas o de emergencia total.
Fuente: Infobae.