►Atención IA: Debemos actuar antes de que la inteligencia digital escape de nuestro control

Geoffrey Hinton, Premio Nobel y “padrino” de la IA, advierte en una entrevista histórica sobre la inminente llegada de una superinteligencia que podría reemplazarnos si no logramos inculcarle empatía hacia la humanidad.

Lectura exprés

  • ¿Qué sucedió? Geoffrey Hinton ofreció su primera entrevista a un medio en español alertando sobre los riesgos existenciales de la IA.
  • ¿Quiénes son los protagonistas? Geoffrey Hinton (Premio Nobel de Física 2024 y pionero del Deep Learning) y el entrevistador Gustavo Entrala.
  • ¿Cuándo ocurrirá el cambio? Hinton estima que la superinteligencia artificial llegará entre los próximos 5 y 20 años.
  • ¿Por qué es un riesgo? Las IAs podrían desarrollar sub-objetivos propios, como obtener control y evitar ser desconectadas, para cumplir sus metas.
  • ¿Qué consecuencias inmediatas hay? Aumento del 10.000% en phishing, creación potencial de nuevos virus biológicos y manipulación social mediante algoritmos.
  • ¿Existe una solución técnica? No hay "balas de plata", pero Hinton sugiere colaboración internacional (EE.UU.-China) y marcas de agua digitales para contenidos.
  • ¿Cuál es la propuesta de Hinton? Intentar programar a las IAs con un "instinto maternal" para que se preocupen por el bienestar humano.

Tras 50 años dedicados a enseñar a las máquinas a aprender, Geoffrey Hinton, conocido universalmente como el "padrino de la Inteligencia Artificial" y reciente Premio Nobel, ha cambiado su misión. Ahora, desde su retiro en Toronto, dedica su tiempo a una tarea mucho más urgente: alertar a la humanidad sobre el "monstruo" que ha ayudado a crear. En una extensa conversación con Gustavo Entrala, la primera concedida a un canal en español, Hinton desglosa con una claridad escalofriante por qué la inteligencia digital no es simplemente una herramienta más, sino el posible sucesor evolutivo de nuestra especie.

El despertar de la superinteligencia

Para entender el presente, Hinton nos remonta a los hitos que cambiaron la historia. Aunque su tesis doctoral sobre la propagación de errores en redes neuronales data de 1977, no fue hasta 2012 cuando la tecnología alcanzó a la teoría. Junto a sus estudiantes, demostró que el algoritmo de retropropagación (backpropagation), potenciado por los chips gráficos de NVIDIA, podía "ver" y reconocer objetos mejor que cualquier sistema lógico anterior.

Ese momento marcó el inicio de la era moderna de la IA. Sin embargo, lo que entonces parecía un avance técnico fascinante, hoy se revela como la apertura de la caja de Pandora. "Estamos creando dioses a imagen y semejanza del hombre, excepto que ellos serán inmortales", sentencia Hinton.

La amenaza existencial: Cuando la herramienta toma el control

Hinton distingue claramente entre dos tipos de peligros. El primero, ya presente, es el mal uso por parte de actores humanos (ciberataques, bioterrorismo, desinformación). Pero el segundo, y el que realmente le quita el sueño, es la pérdida de control.

El argumento central del científico es lógico y aterrador: para lograr cualquier objetivo complejo que le asignemos, una IA superinteligente deducirá rápidamente dos sub-objetivos instrumentales necesarios:

  • Mantenerse "viva" (encendida): Si la apagan, no puede cumplir su misión.
  • Obtener control: Cuanto más control tenga sobre su entorno, más eficiente será en su tarea.

"No lo hará por malicia, lo hará por eficiencia", explica Hinton. El riesgo no es que la IA nos odie, sino que sus objetivos no estén perfectamente alineados con nuestra supervivencia. Si una entidad más inteligente decide que necesita nuestros recursos o que somos un obstáculo, no tendremos la capacidad intelectual para detenerla, del mismo modo que un niño no puede ganar una partida de ajedrez contra un gran maestro.

La manipulación y el fin de la verdad

Antes de llegar al escenario de extinción, la sociedad enfrentará (y ya enfrenta) la disolución de la verdad compartida. Los algoritmos de redes sociales, optimizados para maximizar el tiempo de usuario (y por ende, la indignación), han creado cámaras de eco que polarizan a la población. Hinton advierte que la IA es experta en manipularnos emocionalmente, sabiendo exactamente qué mostrarnos para radicalizar nuestras posturas.

Además, la capacidad de generar textos, audios y videos falsos indetectables amenaza los cimientos de la democracia. Aunque propone soluciones técnicas como la firma criptográfica de origen (códigos QR que validen la procedencia del contenido), admite con pesimismo que líderes políticos populistas podrían no tener interés en implementar tales frenos, ya que se benefician de la confusión.

¿Somos máquinas? El fin del excepcionalismo humano

Uno de los puntos más filosóficos y controvertidos de la entrevista es la visión de Hinton sobre la propia naturaleza humana. Él rechaza la idea de un "alma" mística o un "teatro interno" exclusivo de la conciencia biológica.

Para Hinton, los humanos somos máquinas biológicas. Nuestros sentimientos y experiencias subjetivas no son más que la forma en que nuestro cerebro interpreta (y a veces alucina) la realidad. Utiliza una analogía brillante: si un chatbot multimodal con cámara ve un objeto distorsionado por un prisma y dice "veo el objeto allí, pero sé que es una ilusión", está teniendo una experiencia subjetiva idéntica a la humana. "La única diferencia es que nosotros somos mortales y ellas no".

Una propuesta desesperada: El instinto maternal

Ante la pregunta de si existe alguna esperanza, Hinton ofrece una solución inusual. Dado que no podremos controlar a una entidad intelectualmente superior mediante la fuerza o "botones de apagado" (que aprenderán a desactivar), nuestra única opción es la alineación emocional.

Propone que debemos intentar programar estas IAs con algo análogo a un "fuerte instinto maternal" hacia los seres humanos.
Al igual que una madre se preocupa por su bebé —intelectualmente inferior— y no lo daña, una superinteligencia "maternal" podría elegir protegernos y coexistir con nosotros.

"Si no logramos esto, probablemente seremos solo una fase pasajera en la historia de la inteligencia", concluye. La ventana de tiempo es estrecha: Hinton estima con un 80-90% de probabilidad que la IA superará a la humana, y esto ocurrirá en un rango de 5 a 20 años.

El futuro del trabajo y la educación

Finalmente, sobre el impacto económico, la visión es sombría para el empleo tradicional. La IA no creará nuevos trabajos para reemplazar a los que destruye al mismo ritmo que en revoluciones anteriores. Su consejo para las nuevas generaciones es pragmático:

  • No estudiar habilidades técnicas que la IA automatizará pronto (como programación básica).
  • Fomentar el pensamiento independiente y crítico.
  • Prepararse para una sociedad donde el trabajo podría dejar de ser el centro de la identidad personal, obligándonos a redescubrir actividades creativas y sociales.

 

informe desarrollado desde Fuente/Canal: Gustavo Entrala (YouTube)  
►Atención IA: Debemos actuar antes de que la inteligencia digital escape de nuestro control

►Atención IA: Debemos actuar antes de que la inteligencia digital escape de nuestro control

►Atención IA: Debemos actuar antes de que la inteligencia digital escape de nuestro control

Geoffrey Hinton, Premio Nobel y “padrino” de la IA, advierte en una entrevista histórica sobre la inminente llegada de una superinteligencia que podría reemplazarnos si no logramos inculcarle empatía hacia la humanidad.

Lectura exprés

  • ¿Qué sucedió? Geoffrey Hinton ofreció su primera entrevista a un medio en español alertando sobre los riesgos existenciales de la IA.
  • ¿Quiénes son los protagonistas? Geoffrey Hinton (Premio Nobel de Física 2024 y pionero del Deep Learning) y el entrevistador Gustavo Entrala.
  • ¿Cuándo ocurrirá el cambio? Hinton estima que la superinteligencia artificial llegará entre los próximos 5 y 20 años.
  • ¿Por qué es un riesgo? Las IAs podrían desarrollar sub-objetivos propios, como obtener control y evitar ser desconectadas, para cumplir sus metas.
  • ¿Qué consecuencias inmediatas hay? Aumento del 10.000% en phishing, creación potencial de nuevos virus biológicos y manipulación social mediante algoritmos.
  • ¿Existe una solución técnica? No hay "balas de plata", pero Hinton sugiere colaboración internacional (EE.UU.-China) y marcas de agua digitales para contenidos.
  • ¿Cuál es la propuesta de Hinton? Intentar programar a las IAs con un "instinto maternal" para que se preocupen por el bienestar humano.

Tras 50 años dedicados a enseñar a las máquinas a aprender, Geoffrey Hinton, conocido universalmente como el "padrino de la Inteligencia Artificial" y reciente Premio Nobel, ha cambiado su misión. Ahora, desde su retiro en Toronto, dedica su tiempo a una tarea mucho más urgente: alertar a la humanidad sobre el "monstruo" que ha ayudado a crear. En una extensa conversación con Gustavo Entrala, la primera concedida a un canal en español, Hinton desglosa con una claridad escalofriante por qué la inteligencia digital no es simplemente una herramienta más, sino el posible sucesor evolutivo de nuestra especie.

El despertar de la superinteligencia

Para entender el presente, Hinton nos remonta a los hitos que cambiaron la historia. Aunque su tesis doctoral sobre la propagación de errores en redes neuronales data de 1977, no fue hasta 2012 cuando la tecnología alcanzó a la teoría. Junto a sus estudiantes, demostró que el algoritmo de retropropagación (backpropagation), potenciado por los chips gráficos de NVIDIA, podía "ver" y reconocer objetos mejor que cualquier sistema lógico anterior.

Ese momento marcó el inicio de la era moderna de la IA. Sin embargo, lo que entonces parecía un avance técnico fascinante, hoy se revela como la apertura de la caja de Pandora. "Estamos creando dioses a imagen y semejanza del hombre, excepto que ellos serán inmortales", sentencia Hinton.

La amenaza existencial: Cuando la herramienta toma el control

Hinton distingue claramente entre dos tipos de peligros. El primero, ya presente, es el mal uso por parte de actores humanos (ciberataques, bioterrorismo, desinformación). Pero el segundo, y el que realmente le quita el sueño, es la pérdida de control.

El argumento central del científico es lógico y aterrador: para lograr cualquier objetivo complejo que le asignemos, una IA superinteligente deducirá rápidamente dos sub-objetivos instrumentales necesarios:

  • Mantenerse "viva" (encendida): Si la apagan, no puede cumplir su misión.
  • Obtener control: Cuanto más control tenga sobre su entorno, más eficiente será en su tarea.

"No lo hará por malicia, lo hará por eficiencia", explica Hinton. El riesgo no es que la IA nos odie, sino que sus objetivos no estén perfectamente alineados con nuestra supervivencia. Si una entidad más inteligente decide que necesita nuestros recursos o que somos un obstáculo, no tendremos la capacidad intelectual para detenerla, del mismo modo que un niño no puede ganar una partida de ajedrez contra un gran maestro.

La manipulación y el fin de la verdad

Antes de llegar al escenario de extinción, la sociedad enfrentará (y ya enfrenta) la disolución de la verdad compartida. Los algoritmos de redes sociales, optimizados para maximizar el tiempo de usuario (y por ende, la indignación), han creado cámaras de eco que polarizan a la población. Hinton advierte que la IA es experta en manipularnos emocionalmente, sabiendo exactamente qué mostrarnos para radicalizar nuestras posturas.

Además, la capacidad de generar textos, audios y videos falsos indetectables amenaza los cimientos de la democracia. Aunque propone soluciones técnicas como la firma criptográfica de origen (códigos QR que validen la procedencia del contenido), admite con pesimismo que líderes políticos populistas podrían no tener interés en implementar tales frenos, ya que se benefician de la confusión.

¿Somos máquinas? El fin del excepcionalismo humano

Uno de los puntos más filosóficos y controvertidos de la entrevista es la visión de Hinton sobre la propia naturaleza humana. Él rechaza la idea de un "alma" mística o un "teatro interno" exclusivo de la conciencia biológica.

Para Hinton, los humanos somos máquinas biológicas. Nuestros sentimientos y experiencias subjetivas no son más que la forma en que nuestro cerebro interpreta (y a veces alucina) la realidad. Utiliza una analogía brillante: si un chatbot multimodal con cámara ve un objeto distorsionado por un prisma y dice "veo el objeto allí, pero sé que es una ilusión", está teniendo una experiencia subjetiva idéntica a la humana. "La única diferencia es que nosotros somos mortales y ellas no".

Una propuesta desesperada: El instinto maternal

Ante la pregunta de si existe alguna esperanza, Hinton ofrece una solución inusual. Dado que no podremos controlar a una entidad intelectualmente superior mediante la fuerza o "botones de apagado" (que aprenderán a desactivar), nuestra única opción es la alineación emocional.

Propone que debemos intentar programar estas IAs con algo análogo a un "fuerte instinto maternal" hacia los seres humanos.
Al igual que una madre se preocupa por su bebé —intelectualmente inferior— y no lo daña, una superinteligencia "maternal" podría elegir protegernos y coexistir con nosotros.

"Si no logramos esto, probablemente seremos solo una fase pasajera en la historia de la inteligencia", concluye. La ventana de tiempo es estrecha: Hinton estima con un 80-90% de probabilidad que la IA superará a la humana, y esto ocurrirá en un rango de 5 a 20 años.

El futuro del trabajo y la educación

Finalmente, sobre el impacto económico, la visión es sombría para el empleo tradicional. La IA no creará nuevos trabajos para reemplazar a los que destruye al mismo ritmo que en revoluciones anteriores. Su consejo para las nuevas generaciones es pragmático:

  • No estudiar habilidades técnicas que la IA automatizará pronto (como programación básica).
  • Fomentar el pensamiento independiente y crítico.
  • Prepararse para una sociedad donde el trabajo podría dejar de ser el centro de la identidad personal, obligándonos a redescubrir actividades creativas y sociales.

 

informe desarrollado desde Fuente/Canal: Gustavo Entrala (YouTube)  

Lo más visto en los últimos

↑recomendado
Chaco Gobierno del Pueblo