El ‘padrino’ de AI, Geoffrey Hinton, advierte sobre las trampas cuando deja Google

  • Por Joe Kleinman y Chris Vallance
  • noticias de la BBC

Titulo del Video,

MIRAR: AI ‘Padrino’ Geoffrey Hinton le dice a la BBC sobre los peligros de AI cuando abandona Google

Un hombre ampliamente considerado como el padre de la inteligencia artificial (IA) renunció a su trabajo luego de advertir sobre los peligros que plantean los desarrollos en el campo.

Jeffrey Hinton, de 75 años, anunció su renuncia a Google en un comunicado al New York Times, diciendo que ahora se arrepiente de su trabajo.

Le dijo a la BBC que algunos de los riesgos de los chatbots de IA son «muy aterradores».

«En este momento, no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que podrían serlo pronto».

«Tengo 75 años, así que es hora de retirarme», dijo el Dr. Hinton a la BBC, admitiendo que su edad influyó en su decisión de dejar el gigante tecnológico.

La investigación pionera del Dr. Hinton sobre redes neuronales y aprendizaje profundo allanó el camino para los sistemas de IA actuales como ChatGPT.

En inteligencia artificial, las redes neuronales son sistemas que aprenden y procesan información de forma muy similar al cerebro humano. Permiten que las IA aprendan de la experiencia, al igual que una persona. Esto se llama aprendizaje profundo.

El psicólogo cognitivo y científico informático británico-canadiense le dijo a la BBC que los chatbots pronto superarán la cantidad de información que el cerebro humano puede contener.

«Lo que vemos ahora es que GPT-4 eclipsa el nivel de sentido común que tiene una persona y lo eclipsa por mucho. Racionalmente, no es tan bueno, pero ya lo es. La razón es simple», dijo.

«Y dada la tasa de progreso, esperamos que las cosas mejoren muy rápidamente. Entonces, eso debería preocuparnos».

En un artículo del New York Times, el Dr. Hinton se refirió a los «malos actores» que intentan usar la IA para «malas acciones».

Cuando la BBC le pidió que explicara más, respondió: «Es una especie de peor de los casos, una especie de escenario de pesadilla.

«Por ejemplo, puedes imaginar algunos malos actores [Russian President Vladimir] Putin decidió dar a los robots la capacidad de crear sus propios subobjetivos».

Esto eventualmente puede crear «objetivos secundarios como ‘Quiero tener más poder'», advirtió el científico.

Y agregó: “He llegado a la conclusión de que la inteligencia que estamos desarrollando es muy diferente a la inteligencia que tenemos.

“Somos sistemas biológicos y estos son sistemas digitales. Y la gran diferencia es que con los sistemas digitales, hay múltiples copias del mismo peso, el mismo modelo del mundo.

«Y todas estas réplicas pueden aprender individualmente, pero compartir su conocimiento al instante. Entonces es como si tuvieras 10,000 personas, y cada vez que una aprende algo, todos lo saben automáticamente. Y estos chatbots pueden aprender más que cualquier persona».

Hablando en privado con la BBC, Matt Clifford, jefe de la Agencia de Innovación e Investigación Avanzada del Reino Unido, dijo que el anuncio del Dr. Hinton «subraya el ritmo de las capacidades de la IA».

«Esta tecnología tiene una enorme ventaja, pero el mundo necesita invertir fuerte y urgentemente en la seguridad y el control de la IA», dijo.

El Dr. Hinton se hizo eco de las preocupaciones de un número creciente de expertos sobre la IA, tanto la velocidad a la que se desarrolla como la dirección a la que se dirige.

‘Tenemos que dar un paso atrás’

Yoshua Bengio, otro padrino de la IA, ganó el Premio Turing 2018 por su trabajo en aprendizaje profundo junto con el Dr. Hinton y Yann LeCun.

Pero el Dr. Hinton le dijo a la BBC que pensaba que la IA ofrecería más beneficios que riesgos «a corto plazo», dijo, «así que no creo que debamos dejar de desarrollar estas cosas».

Agregó que la suspensión de la competencia internacional sería difícil. «Incluso si todos en los EE. UU. dejan de hacerlo, China tendrá una gran ventaja», dijo.

El Dr. Hinton también dijo que era un experto en ciencia, no en política, y que era responsabilidad del gobierno garantizar que la IA se desarrollara «pensando mucho en cómo evitar que se vuelva deshonesta».

‘Enfoque responsable’

El Dr. Hinton no quiso criticar a Google e insistió en que el gigante tecnológico era «muy responsable».

«De hecho, tengo algunas cosas buenas que decir sobre Google. Serían más creíbles si no trabajara en Google».

Jeff Dean, científico jefe de Google, dijo en un comunicado: «Estamos comprometidos con un enfoque responsable de la IA. Continuamos aprendiendo a comprender los riesgos emergentes mientras innovamos audazmente».

Titulo del Video,

Ver: ¿Qué es la Inteligencia Artificial?

Aunque los chatbots de IA son muy populares en este momento, es importante recordar que son solo un aspecto de la inteligencia artificial.

AI está detrás de los algoritmos que deciden qué sitios de transmisión de video debe ver a continuación. Puede usarse en el reclutamiento para filtrar solicitudes de empleo, puede ser usado por aseguradoras para calcular primas, puede diagnosticar condiciones médicas (aunque los médicos humanos tienen la última palabra).

Lo que vemos ahora es AGI (inteligencia artificial general), que puede entrenarse para hacer muchas cosas dentro de una suma. Por ejemplo, ChatGPT solo puede proporcionar respuestas de texto a una consulta, pero las posibilidades son, como podemos ver, infinitas.

Pero la velocidad de aceleración de la IA ha sorprendido incluso a sus creadores. Ha evolucionado dramáticamente desde que el Dr. Hinton desarrolló una red neuronal de análisis de imágenes pionera en 2012.

Incluso el jefe de Google, Sundar Pichai, dijo en una entrevista reciente que ni siquiera él entiende completamente todo lo que hace Bart, su chatbot de IA.

No se equivoquen, estamos en un tren rápido en este momento, y la preocupación es que algún día comenzará a construir sus propias vías.

READ  The Texas Pipeline Company ha sido culpada del derrame de petróleo de California

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *