¿Cuáles son exactamente los riesgos que plantea la inteligencia artificial?

A fines de marzo, más de 1,000 líderes tecnológicos, investigadores y otros expertos que trabajan en y alrededor de la inteligencia artificial firmaron una carta abierta advirtiendo que las tecnologías de IA presentan «graves riesgos para la sociedad y la humanidad».

El grupo, que incluía a Elon Musk, CEO de Tesla y propietario de Twitter, instó a los laboratorios de inteligencia artificial a detener el desarrollo de sus sistemas más poderosos durante seis meses para poder comprender mejor los riesgos detrás de la tecnología.

«Los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos pueden controlarse», dice la carta.

La carta, que ahora tiene más de 27.000 firmas, fue concisa. Su lenguaje era amplio. Y algunos de los nombres detrás de la carta parecen tener una relación ambivalente con AI. Musk, por ejemplo, está construyendo su propia compañía de inteligencia artificial y es un importante donante de la organización que escribió la carta.

Pero la carta representa una preocupación creciente entre los expertos en inteligencia artificial de que los sistemas más recientes, en particular GPT-4, la tecnología introducida por la startup OpenAI de San Francisco, podría causar daño a la sociedad. Creían que los futuros regímenes serían más peligrosos.

Han llegado algunas apuestas. Otros no lo harán durante meses o años. Otros son solo suposiciones.

“Nuestra capacidad para comprender lo que puede salir mal en sistemas de IA fuertes es muy débil”, dijo Yoshua Bengio, profesor e investigador de inteligencia artificial en la Universidad de Montreal. «Así que tenemos que tener mucho cuidado».

El Dr. Bengio es quizás la persona más importante para firmar la carta.

READ  Embárcate en una aventura con las chicas abysskitas. [RD/HC01]

Trabajando con otros académicos, Geoffrey Hinton, investigador de Google hasta hace poco, y Yann LeCun, ahora científico jefe de inteligencia artificial en Meta, propietario de Facebook, el Dr. Bengio ha pasado las últimas cuatro décadas desarrollando la tecnología que impulsa sistemas como GPT-4. . En 2018, los investigadores recibieron el Premio Turing, a menudo conocido como el «Premio Nobel de Computación», en reconocimiento a su trabajo en redes neuronales.

Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. Hace unos cinco años, empresas como Google, Microsoft y OpenAI comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital llamadas modelos de lenguaje grande o LLM.

Al identificar patrones en este texto, el LLM aprende a crear texto por sí mismo, incluidas publicaciones de blog, poemas y programas de computadora. Incluso pueden mantener una conversación.

Esta tecnología puede ayudar a los programadores de computadoras, escritores y otros trabajadores a generar ideas y hacer las cosas más rápidamente. Pero el Dr. Bengio y otros expertos también advierten que los LLM pueden aprender comportamientos no deseados e inesperados.

Estos sistemas pueden generar información falsa, sesgada y tóxica. Los sistemas como GPT-4 confunden los hechos y enmarcan la información, un fenómeno llamado «alucinaciones».

Las empresas están trabajando para resolver estos problemas. Pero a expertos como el Dr. Bengio les preocupa que, a medida que los investigadores hagan que estos sistemas sean más potentes, introducirán nuevos riesgos.

Debido a que estos sistemas presentan información con lo que parece ser una total confianza, puede ser difícil separar los hechos de la ficción cuando se utilizan. A los expertos les preocupa que las personas confíen en estos sistemas para obtener asesoramiento médico, apoyo emocional y la información sin procesar que utilizan para tomar decisiones.

READ  Apple WWDC 2022: iOS 16, macOS Ventura, M2 MacBook Air y más

«No hay garantía de que estos sistemas sean correctos en cualquier tarea que les asigne», dijo Subbarao Kambhampati, profesor de informática en la Universidad Estatal de Arizona.

A los expertos también les preocupa que las personas abusen de estos sistemas para difundir desinformación. Debido a que pueden hablar de manera humana, pueden ser sorprendentemente persuasivos.

«Ahora tenemos sistemas que pueden interactuar con nosotros a través del lenguaje natural y no podemos distinguir entre lo real y lo falso», dijo el Dr. Bengio.

A los expertos les preocupa que la nueva inteligencia artificial pueda eliminar puestos de trabajo. Actualmente, tecnologías como GPT-4 tienden a complementar a los trabajadores humanos. Pero OpenAI reconoce que podría reemplazar a algunos trabajadores, incluidas las personas que moderan el contenido en línea.

Todavía no pueden replicar el trabajo de abogados, contadores o médicos. Pero pueden reemplazar a los asistentes legales, asistentes personales y traductores.

Artículo escrito por investigadores de OpenAI Se ha estimado que el 80 por ciento de la fuerza laboral de EE. UU. podría tener al menos el 10 por ciento de sus tareas laborales afectadas por LLM y que el 19 por ciento de los trabajadores podrían ver afectadas al menos el 50 por ciento de sus tareas.

“Hay una señal de que los trabajos rutinarios están desapareciendo”, dijo Oren Etzioni, director ejecutivo fundador del Instituto Allen de Inteligencia Artificial, un laboratorio de investigación en Seattle.

Algunas de las personas que firmaron la carta también creen que la inteligencia artificial puede escaparse de nuestro control o destruir a la humanidad. Pero muchos expertos dicen que esto es muy exagerado.

READ  Dos hombres consiguen trabajo en Amazon Japón solo para robar copias de Zelda

La carta fue escrita por un grupo del Future of Life Institute, una organización dedicada a explorar los riesgos existenciales para la humanidad. Advierten que debido a que los sistemas de IA a menudo aprenden un comportamiento inesperado a partir de la gran cantidad de datos que analizan, pueden causar problemas graves e inesperados.

Les preocupa que, a medida que las empresas conecten LLM a otros servicios de Internet, estos sistemas puedan adquirir poderes inesperados, ya que pueden escribir su propio código informático. Dicen que los desarrolladores crearán nuevos riesgos si permiten que potentes sistemas de inteligencia artificial ejecuten su código.

dijo Anthony Aguirre, cosmólogo teórico y físico de la Universidad de California, Santa Cruz y cofundador del Future Life Institute.

“Si tomas un escenario menos probable, donde las cosas realmente despegan, donde no hay una gobernanza real, donde estos sistemas se vuelven más fuertes de lo que pensábamos que serían, entonces las cosas se vuelven realmente locas”, dijo.

El Dr. Etzioni dijo que hablar del riesgo existencial era hipotético. Pero dijo que otros riesgos, sobre todo la información errónea, ya no eran especulaciones.

«Ahora tenemos algunos problemas reales», dijo. «Son de buena fe. Requieren alguna respuesta responsable. Pueden requerir regulaciones y legislación».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *