La orden ejecutiva de Trump impulsa la inteligencia artificial en la educación de Estados Unidos
La complejidad actual en el desarrollo tecnológico exige marcos legales capaces de responder a los posibles riesgos relacionados con el uso de sistemas autónomos en sectores críticos como la seguridad y la producción
Por
Gustavo Beliz
El potencial destructivo de una IA desalineada con los valores humanos podría ser igual de devastador a una bomba atómica
Te invito a recrear una famosa serie de los años 70, “El túnel del tiempo”. En ella, sus protagonistas eran capaces de transportarse a diferentes momentos del pasado y convertirse en actores y espectadores de las circunstancias más apasionantes de la historia de la humanidad.
Hoy, entrar en ese túnel, implica convivir con tres épocas o momentos históricos simultáneos de enorme trascendencia para todos los seres humanos contemporáneos.
Vivimos un “momento” Ford o Taylor. La super-emergencia de las nuevas cadenas de producción en masa que llevaron a la fabricación de automóviles, heladeras, vestimenta y cuanto hace a nuestro patrón de consumo moderno, gracias al surgimiento de la máquina de vapor, la electricidad y los nuevos modelos de gerenciamiento de las fábricas. Ese momento Taylor hoy puede dar lugar a una consecuencia de dos caras: el Taylorismo digital. Con herramientas de vigilancia de cada momento de los trabajadores a través de un seguimiento algorítmico de sus movimientos; hasta la posibilidad de incrementar fabulosamente la rapidez y productividad con la cual se desempeñan las tareas. E incluso aumentar la seguridad de las mismas, para evitar que en las profundidades de la tierra -la minería, por ejemplo- se tengan que internar seres humanos y sean reemplazados por robots inteligentes.
También vivimos al mismo tiempo un “momento Apolo-Sputnik”. Cuando la carrera espacial llevó a la competencia entre las grandes potencias ganadoras de la Segunda Guerra Mundial al desarrollo de investigaciones tecnológicas alucinantes, que generaron, entre otras, la irrupción de internet como principal disrupción en su aplicación civil. Vivimos el tiempo donde la carrera espacial sueña con instalar data centers en el espacio para optimizar el uso de la energía que los alimente, hasta la emergencia de satélites que optimizan el acceso a internet de las cosas para un productor agropecuario o un simple usuario rural.
Y si seguimos en el túnel del tiempo, podemos ver que la IA también constituye un “Momento Manhattan”. ¿Te acordas de esa escena apocalíptica de la película Openhaimer, cuando se está por experimentar en el desierto la primera explosión nuclear y no se sabía si el mundo podría desaparecer aplastado por un cataclismo? Esos descubrimientos atómicos dieron lugar a terribles empleos bélicos, pero a partir de ellos los decisores de la humanidad fueron concientes de que no se podía volver a apretar el botón rojo porque se corría el riesgo de una escalada armamentística que podía poner fin al planeta.
Primó la ley. Aunque tardó 23 años en firmarse el Tratado de No Proliferación Nuclear y el recorrido tuvo sus altos y bajos, podemos decir que el mecanismo fue una respuesta global frente a los riesgos de extinción existencial.
Hoy estamos frente a la preponderancia de un Momento Manhattan en términos de la IA, en medio de reclamos universales para establecer “líneas rojas” que no puedan traspasarse en su desarrollo. Se afirma que la carrera armamentística rumbo a la creación de una Super-IA, que supere a toda la inteligencia humana en su conjunto, podría significar un dominio que se escapa del control humano, con consecuencias catastróficas.
En el Atlas de IA para el Desarrollo Humano exploramos similitudes y diferencias con aquellos procesos.
Diagrama con dos flujos paralelos que comparan el enriquecimiento de uranio y el entrenamiento de inteligencia artificial, mostrando etapas y resultados
Este diagrama ilustra la analogía entre los procesos de enriquecimiento de uranio y el entrenamiento de modelos de inteligencia artificial, detallando sus etapas y resultados.
En un sentido, hoy es más fácil fabricar una bomba atómica IA en secreto, porque muchos modelos de IA son lanzados al mercado sin control adecuado de pruebas de seguridad y, a través de un código abierto, pueden ser empleados para la fabricación de armas biológicas devastadoras. Tampoco se necesitan bienes físicos para hacerlo: ni uranio, ni plutonio, ni grandes centrales nucleares. Ni mucho menos un conjunto de científicos exportados en secreto entre las potencias reinantes.
La minería de uranio y el enriquecimiento se comparan con la fabricación de chips y el entrenamiento de IA, ambos procesos producen salidas que pueden usarse para fines seguros o dañinos. Por ejemplo, el enriquecimiento de uranio puede producir uranio de bajo enriquecimiento o uranio altamente enriquecido, similar a cómo la capacitación en IA puede producir modelos de baja o alta capacidad.
Además, la liberación de pesos de modelos podría permitir que alguien con una cantidad moderada de experiencia en aprendizaje automático eluda los grandes requisitos computacionales necesarios para entrenar un modelo, debate que está relacionado con la cuestión del código abierto.
Lo que sí está claro, es que la decisión de apretar el botón no puede dejarse librada a sistemas de IA autónomos. Aunque parezca exótico, se ha llegado a discutir cómo la IA podría influir en la estabilidad nuclear al mejorar la racionalidad en la toma de decisiones, lo que podría ayudar a prevenir lanzamientos accidentales o escaladas no deseadas. Sin embargo, también se reconoce que los juicios sobre los intereses nacionales no son bien interpretados por la IA. Además, se destaca que un proceso de razonamiento puramente lógico basado en valores erróneos podría tener consecuencias desastrosas, especialmente si se permite que una máquina basada en IA tome decisiones de lanzamiento nuclear.
Gráfico de barras horizontal que ilustra porcentajes de expertos preocupados por la IA. Muestra cuatro barras de distintos colores, con porcentajes de 37.8%, 47.1%, 51.4% y 41.2%
Los principales científicos del mundo opinan sobre el riesgo de extinción de la humanidad provocado por la IA
Porque en la emulación de los seres humanos, las IAs también aprenden a mentir, cuando no saben: el engaño de las máquinas puede significar que han ingresado en una tarea evolutiva que las preserve como especie, así como otros seres del reino animal se camuflan para preservar su existencia.
Una selección natural darwiniana es el espectro que también recorre el universo de la IA, tanto en relación con otros modelos de IA con los cuales puedan competir o federarse, como en relación con los seres humanos.
La competencia por construir una IA general sin garantizar su alineamiento no debe considerarse simplemente como una carrera armamentística sino como una carrera suicida, donde la confrontación entre las grandes potencias tendrá un solo ganador: las máquinas. El único movimiento ganador es “no jugar el juego”, como nos recuerda Max Tegmark, el titular del Future of Life Institute, al aludir al final de la película “Juegos de Guerra”.
Preguntas éticas claves para el presente-futuro:
¿Es posible plantear una moratoria de “ensayos de IA” que signifique detener el desarrollo de investigaciones de grandes modelos de frontera que no tengan robustos esquemas de seguridad?
¿Los Estados pueden disponer que en el desarrollo de los grandes modelos de lenguaje de la IA y los agentes IA se establezca un mínimo prudencial de inversión en seguridad de la IA para los ciudadanos, tal cual ocurre con las normas prudenciales de los Bancos Centrales globales, para optimizar la estabilidad financiera?
¿Es posible generar un ámbito de cooperación para propiciar a nivel global modelos de IA que en lugar de la carrera armamentística fomenten una carrera para el turbo-desarrollo humano, con grandes objetivos sociales motorizados por la aplicación de la IA?
Talleres y Boca protagonizarán este jueves uno de los duelos más atractivos de la 13ª…
La provincia de Jujuy avanza en la organización de la Feria de Ciencias 2026, evento…
El fiscal federal Eduardo Taiano solicitó el procesamiento de la exfiscal Viviana Fein por presunto…
Del 2 al 8 de abril, Jujuy vive una de las semanas más intensas de…
Jujuy Básquet sufrió una dura derrota en el inicio de los playoffs al caer 75-73…
El gobierno de la República Islámica de Irán lanzó una dura advertencia contra la República…