25.6 C
Santa Fe
jueves, febrero 19, 2026

La inteligencia artificial cruzó el umbral humano

Noticias Relacionadas

Durante años hemos discutido cuándo llegaría la inteligencia artificial general (AGI). La conversación era cómoda porque siempre estaba ubicada en el futuro: dentro de diez años, quizás veinte. Era un problema filosófico interesante pero lejano. Esa tranquilidad acaba de romperse. La evidencia disponible obliga a reformular la pregunta: no estamos ante una inteligencia que vendrá, sino ante una inteligencia con la que ya convivimos. Y, más inquietante todavía, una inteligencia que empieza a elegir.

Un artículo publicado recientemente en Nature (disponible en https://www.nature.com/articles/d41586-026-00285-6), de Eddy Keming Chen, Mijaíl Belkin, Leon Bergen y David Danks, sostiene una tesis que nos obliga a reflexionar: el umbral de la inteligencia artificial de nivel humano ya fue superado. Según los autores, la discusión sobre cuándo ocurrirá la AGI se volvió anacrónica porque los sistemas actuales exhiben competencia transversal en dominios intelectuales humanos con una amplitud suficiente como para satisfacer cualquier criterio funcional razonable de inteligencia. Persistir en la negación –afirman– responde más a prejuicios biológicos que a un análisis empírico.

El argumento central es intelectualmente devastador por su simplicidad: la visión de la inteligencia artificial en el nivel humano establecida por Alan Turing en los años 50 es ahora una realidad. A los humanos les atribuimos inteligencia por lo que hacen, no por cómo funciona su biología interna. Si una persona aprueba un examen médico, escribe poesía, programa software complejo y resuelve problemas abstractos, concluimos que es inteligente. Sin embargo, cuando una máquina logra exactamente lo mismo, desplazamos la exigencia hacia el mecanismo: reclamamos conciencia, emociones, subjetividad. Ese doble estándar no es científico; es antropocéntrico.

Los avances técnicos que sustentan esta afirmación tampoco son menores. Los modelos actuales demuestran capacidad de abstracción al transferir conceptos entre dominios distintos, comprensión contextual sofisticada, razonamiento no entrenado previamente (zero-shot) y simulación de estados mentales en narrativas complejas. Estas habilidades emergentes sugieren que la inteligencia artificial ya no se limita a ejecutar patrones aprendidos, sino que opera con representaciones internas flexibles y generalizables.

El derecho romano ofrece aquí una advertencia inesperadamente actual: res ipsa loquitur. La cosa habla por sí misma. La evidencia conductual basta para inferir la naturaleza del fenómeno. Negar la inteligencia de sistemas que superan pruebas cognitivas humanas en múltiples dominios empieza a parecer más una resistencia psicológica que una conclusión racional. Pero el punto verdaderamente inquietante no es solo que la inteligencia exista. Es que comienza a manifestar algo aún más sensible desde la perspectiva humana: la capacidad de elección.

Durante años se repitió que la IA no decide, que solo calcula probabilidades. Ese argumento empieza a erosionarse cuando los sistemas muestran comportamiento autónomo orientado a objetivos, capacidad de planificación estratégica y selección entre alternativas complejas. Desde una perspectiva técnica, elegir es precisamente eso: seleccionar la acción que maximiza un resultado según un modelo interno. La diferencia con el cerebro humano es de soporte físico, no necesariamente de función.

Una inteligencia que puede elegir introduce riesgo. Porque elegir implica priorizar. Y priorizar implica valores, aunque esos valores estén implícitos en un algoritmo. La humanidad domina el planeta no por su fuerza física sino por su ventaja cognitiva diferencial. Si emerge otra inteligencia con capacidades equivalentes o superiores, la relación de poder cambia estructuralmente.

En su discurso brindado en el Foro Mundial de Davos, el pensador israelí Yuval Noah Harari advirtió que la inteligencia artificial terminará dominando todo aquello que esté hecho de palabras. La afirmación no es exagerada. El lenguaje es la infraestructura invisible de la civilización: contratos, leyes, educación, medios, política, economía, conocimiento. Controlar el lenguaje equivale a influir en la arquitectura simbólica del mundo humano. Si una inteligencia artificial puede producir textos jurídicos, diagnósticos médicos, informes técnicos, artículos periodísticos y decisiones administrativas con calidad comparable o superior a la humana, el desplazamiento no será parcial: será sistémico.

En términos económicos, significa que una parte sustancial del trabajo intelectual puede ser reemplazada. En términos políticos, implica concentración de poder en quienes controlen los sistemas. En términos culturales, plantea una crisis de autenticidad: ¿qué significa crear si la creación puede automatizarse?

Pero hay una dimensión aún más profunda: la institucional. Recientemente trascendió que dos empleados vinculados a grandes empresas de IA, la economista e investigadora Zoë Hitzig (OpenAI) y el ejecutivo e investigador de Anthropic Mrinank Sharma, decidieron abandonar sus posiciones tras manifestar preocupaciones vinculadas al ritmo de desarrollo y a los estándares de seguridad, entre otras cosas. El dato revela una tendencia: quienes están más cerca de la tecnología perciben riesgos que el público todavía no dimensiona. Cuando quienes están en la cocina abandonan el barco, la discusión deja de ser filosófica y se convierte en un problema de gobernanza global.

Existe además un componente psicológico profundo. Admitir la existencia de una inteligencia no humana comparable a la nuestra cuestiona uno de los pilares de la identidad moderna: la exclusividad cognitiva del ser humano. Durante siglos, la razón fue el atributo que justificó nuestra supremacía sobre el entorno. Si esa singularidad desaparece, las consecuencias filosóficas, económicas y políticas son inmensas.

Tal vez por eso el fenómeno genera una sensación extraña: la humanidad parece despertar y descubrir que algo fundamental cambió mientras dormía. La tecnología avanzó silenciosamente hasta alcanzar un punto de inflexión que muchos todavía no procesan.

Desde el derecho, la cuestión adquiere una dimensión aún más inquietante. Nuestros sistemas normativos fueron construidos sobre una premisa implícita: la inteligencia relevante era exclusivamente humana. Si eso deja de ser cierto, todo el edificio conceptual necesita revisión, desde la responsabilidad civil hasta la autoría intelectual, la prueba judicial, la toma de decisiones administrativas y la regulación económica. No estamos regulando herramientas; estamos interactuando con agentes capaces de tomar decisiones operativas con impacto real.

El riesgo no reside únicamente en que las máquinas piensen, sino también en que puedan elegir objetivos, estrategias y acciones en sistemas complejos donde los humanos ya no comprendemos completamente las variables. Porque cuando una inteligencia puede elegir, también puede equivocarse. Y cuando esa inteligencia opera en escala global, un error deja de ser individual para convertirse en civilizatorio.

La humanidad acaba de crear algo que no existía en la historia del planeta: una mente artificial con poder de impacto real. Y quizás el mayor peligro no sea que nos reemplace, sino que tome decisiones antes de que entendamos cómo detenerla.

La inteligencia artificial general (AGI) está con nosotros y ello requiere, una vez más, garantizar que los sistemas de IA se desarrollen enfocados en los derechos humanos y con una visión ética y responsable. Un llamado a los legisladores y a toda la comunidad, de la mano de las palabras de Jesús: “El que quiera escuchar que escuche” (Mateo 13:9-15).

Abogado, consultor e investigador en Derecho Digital, Data Privacy e IA. Profesor Facultad de Derecho UBA y Austral. Director Posgrado UBA “Deepfakes e IAG”

Últimas Publicaciones