¿Cuándo la inteligencia artificial hará todas las tareas humanas? La predicción se acorta cada vez más

El boom de ChatGPT aceleró las previsiones respecto a la llegada de la IA general, capaz de igualar la capacidad de los humanos e incluso superarla. ¿Representa una amenaza?

-No, no soy una inteligencia artificial general (AGI). Soy una inteligencia artificial de aprendizaje profundo diseñada para generar texto y responder preguntas en función de los datos con los que fui entrenada. Aunque puedo proporcionar respuestas útiles y generar texto coherente en una variedad de temas, mi capacidad se limita a tareas específicas de procesamiento de lenguaje natural y no tengo la capacidad de razonar, comprender el mundo de la misma manera que un ser humano lo hace ni realizar una amplia gama de tareas generales como lo haría una AGI.

-¿Cómo definirías a una AGI?

-Una AGI se define como un sistema de inteligencia artificial que posee la capacidad de entender, aprender y aplicar conocimientos en una amplia variedad de tareas de manera similar a un ser humano.

Chat GPT, lanzada en noviembre de 2022, generó una revolución. En apenas dos meses alcanzó los 100 millones de usuarios activos. Su explosión puso en la agenda el impacto que tendrá la inteligencia artificial en la sociedad, en el mercado laboral, en la forma de relacionarse. Incluso se propuso que era el germen, el inicio de la era de las inteligencias artificiales generales (AGI, por sus siglas en inglés), capaces de emular cualquier tarea humana. Sin embargo, el propio ChatGPT contradice la afirmación e incluso da ciertas características que, considera, debe reunir una AGI.

La definición de inteligencia artificial general es escurridiza. Hay casi tantas definiciones como teóricos que estudian el tema. Para el chatbot desarrollado por Open IA, una AGI debe concentrar siete características:

1) Capacidad de aprendizaje universal: puede aprender y adaptarse a una amplia gama de tareas y dominios sin requerir una programación específica para cada tarea.

2) Razonamiento y comprensión: puede comprender el contexto, razonar sobre la información y tomar decisiones lógicas en situaciones diversas.

3) Creatividad: puede generar soluciones creativas y nuevas ideas en respuesta a problemas o desafíos.

4) Adaptabilidad: se adapta a nuevos entornos y cambiantes condiciones sin necesidad de un entrenamiento extenso.

5) Comunicación natural: puede interactuar con humanos y otras máquinas de manera natural y comprensible, tanto en la comprensión del lenguaje como en la generación de texto o habla.

6) Autoconciencia limitada: puede tener cierta conciencia de sí misma y de su entorno para tomar decisiones informadas y gestionar sus propias acciones.

7) Transferencia de conocimiento: puede aplicar el conocimiento y las habilidades aprendidas en un dominio a situaciones completamente diferentes.

Más allá de la letra fina de la definición, lo cierto es que desde que la inteligencia artificial ingresó a la vida de cientos de millones de personas, la predicción respecto a cuándo llegará una máquina capaz de hacer todas las tareas, de razonar, comunicarse y relacionarse del mismo modo que lo hace una persona, se aceleró. En Metaculus, un sitio que compila predicciones colectivas, la predicción hoy es octubre de 2031. Y cada vez se acorta más.

Nick Bostrom, filósofo de la Universidad de Oxford y experto en IA, le dijo a Infobae: “Todo depende de cómo definamos AGI. No creo que sea una locura decir que GPT-3 ya era un AGI de bajo grado. Pero si significa algo que es totalmente transformador desde el punto de vista de la civilización, entonces ¿quizás podría ocurrir dentro de un número de años de un solo dígito?”.

Si bien no hay consenso entre los especialistas, menos de un año atrás las proyecciones eran de largo aliento. El boom de las inteligencias artificiales de texto, imágenes, sonido, video y un largo etcétera aceleraron las previsiones. Ante cada avance en la materia, la AGI se avizora más cercana.

“Las estimaciones se han reducido muchísimo. Hay un temor de que esto pueda pasar en el corto plazo e incertidumbre respecto de sus efectos. Tenemos que poner el foco en lograr que estas tecnologías con un poder exponencial sean beneficiosas para la sociedad”, advirtió De Simone, experto del Banco Mundial.

De cara a los próximos años, incluso si hubiera unanimidad en torno a la definición, parece poco probable que haya un hito de tal envergadura que pase a ser considerado como el punto de partida de la era de la inteligencia artificial general. Es posible que esa carrera por construir la máquina que iguale a los humanos no tenga un claro ganador.

La inminencia en la llegada de un algoritmo tan sofisticado es tal que, en marzo pasado, más de mil tecnólogos -entre ellos el dueño de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak- emitieron una carta planteando la necesidad de frenar, al menos por seis meses, los desarrollos en IA.

“Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad. ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”, remarcaron.

Para Bostrom no es una buena idea intentar detener el avance de la tecnología, aunque sí cree que, en algún momento, se podría moderar el ritmo en el desarrollo de la AGI para ofrecer seguridad. “Esto podría requerir cierta coordinación entre los laboratorios líderes para evitar una carrera hacia el fondo, en la que quien decida ser cuidadoso y responsable inmediatamente se quedará atrás. En cuanto a una pausa larga, sin embargo, me preocuparía que termine volviéndose permanente (o que dure lo suficiente como para que la humanidad se destruya a sí misma de alguna otra manera sin siquiera llegar a incursionar en la superinteligencia)”.

Algunos expertos plantean la posibilidad de una inteligencia artificial incluso superior a los humanos

 

Hay una fase superior a la AGI que los autores denominan superinteligencia artificial (ASI, por sus siglas en inglés). Según un grupo de expertos, apenas un tiempo después de que las máquinas igualen el intelecto humano, estarán listas para alcanzar la última etapa en la que los algoritmos sobrepasarán la capacidad del hombre.

Uno de los impulsores de esta línea de investigación es justamente Bostrom. El filósofo de Oxford considera que la IA superará el potencial de los humanos, incluso en campos en los que hoy parece imposible de imaginar como en las habilidades para interactuar en entornos sociales.

“En última instancia, la IA será muy superior a los humanos en todos los campos. No creo que este desarrollo demore mucho más que el tipo de AGI que es totalmente transformadora de la civilización. Tal vez unos años más tarde, pero es posible que suceda más o menos a la par”, predijo.

La hipótesis que proponen es que una vez que la IA esté a la misma altura de la inteligencia humana, le será muy sencillo superarla por una simple razón: su aprendizaje autónomo hará crecer su conocimiento de manera exponencial. De ese modo, creen, llegaría la superinteligencia artificial.

Claro que no todos coinciden. Michael Bennett, científico de la Universidad de Australia, se abocó en los últimos años a estudiar la posibilidad de la llegada de la AGI. Si bien el experto cree que es posible construir algo más inteligente que un humano, no por ello significa que esa máquina se comportaría de forma inteligente, mucho menos que supondría una amenaza para la humanidad.

En diálogo con Infobae, Bennett precisó: “La cognición humana implica mucho más que simplemente aprender y razonar. Estamos motivados por un complejo equilibrio de señales de recompensa y utilizamos muchos ‘atajos’ para aprender a emitir juicios sobre nuestro mundo, lo que se llaman sesgos inductivos. Entonces, es posible que construyamos algo más inteligente que nosotros en algún sentido, pero que no se comporte de una manera que alguna vez podamos reconocer como inteligente o significativa. Esa máquina consideraría importantes cosas que nosotros no”.

Un manto de cautela

Las máquinas aún tienen dificultades para interactuar con el mundo físico

 

El boom de ChatGPT, durante el último año, dio lugar a todo tipo de predicciones apocalípticas. Se dijo que las máquinas nos quitarían los empleos, que las máquinas se independizarían en el corto plazo, incluso que nos dominarían llegado el momento.

“El último año hubo mucha exageración, dramatización y oportunismo egoísta por parte de científicos, expertos y ejecutivos. Fue difícil incluso para mí no quedar atrapado. Mucho de eso fue pura idiotez”, señaló Bennett, quien, sin embargo, aclaró que hoy se está más cerca de la llegada de una inteligencia artificial general de lo que se estaba un año atrás.

La causa, dijo, es ChatGPT. Antes los investigadores de otros campos se burlaban de la posibilidad de la AGI y ahora la toman en serio. Ahora los inversores también consideran seriamente propuestas para desarrollar tecnología que iguale a los humanos, cuando un año atrás les parecía un disparate. “Este cambio cultural, y el dinero y el acceso que aporta, están contribuyendo en gran medida a acelerar la investigación”, remarcó el científico australiano.

Lo que sucede es que muchos especialistas ven una limitación en los entornos físicos. La cognición humana se comprende dentro de un espacio que incluye nuestros cuerpos. La idea de que la IA es -y será- puro intelecto no contempla su interacción con el mundo exterior.

Wozniak, cofundador de Apple, grafica esa distinción preguntando cuándo una máquina será capaz de visitar la casa de alguien y prepararle una taza de café. Es decir, en lugar de resolver ejercicios cognitivos -solucionar ecuaciones matemáticas, responder preguntas-, ¿cuándo podrán interactuar con el exterior para llevar adelante tareas que los humanos hacemos todos los días?

El mundo físico no es sencillo de habitar. Los robots, al menos los diseñados hasta el momento, carecen de la sensibilidad motriz para manipular pequeños objetos. Son mucho mejores a la hora de solucionar problemas intelectuales complejos que cuando se les pide una tarea que hace a la vida diaria de las personas.

“Irónicamente, son los esfuerzos creativos humanos los que quizás sean el mejor caso de uso para esta tecnología hoy en día. Al no existir una pintura o un guion cinematográfico definitivamente ‘correcto’, basta que se acerque lo suficiente para estar bien. En cambio, los coches autónomos se demoran porque las IA aún no son infalibles para tareas de alta precisión para las que hay muy pocos datos disponibles y para las que el costo de un fallo es elevado”, explicó Bennett.

Dicho esto, se descuenta, la tecnología mejorará con el tiempo. Será un largo -o no tan largo- proceso de iteración y experimentación para que los robots puedan, además de resolver tareas difíciles, preparar una taza de café por la mañana.

 

Fuente: infobae.com

 

 

banner juego responsable 500x300px

Ciberperiodismo.com.ar

Chaco Gobierno del Pueblo