La inteligencia artificial es el dominio del lenguaje. ¿Debemos confiar en lo que dice?

Pero debido a que la fluidez de GPT-3 ha impresionado a muchos observadores, el enfoque del modelo de lenguaje grande también ha atraído importantes críticas en los últimos años. Algunos escépticos argumentan que el software solo es capaz de una imitación ciega, que imita los patrones gramaticales del lenguaje humano pero es incapaz de generar sus propias ideas o tomar decisiones complejas, una limitación fundamental que impediría que el enfoque LLM madure hasta convertirse en algo parecido a lo humano. inteligencia. Para estos críticos, GPT-3 es el último objeto brillante en una larga historia de exageración de la IA, dirigiendo el dinero de la investigación y la atención a lo que en última instancia resultará ser un callejón sin salida, evitando que maduren otros enfoques prometedores. Otros críticos creen que los programas como GPT-3 se verán comprometidos para siempre por sesgos, propaganda y desinformación en los datos con los que han sido entrenados, lo que significa que su uso de algo más que trucos de salón siempre será irresponsable.

Dondequiera que llegue a este debate, el ritmo de la mejora reciente en los modelos de lenguajes grandes hace que sea difícil imaginar que no se implementarán comercialmente en los próximos años. Esto plantea la cuestión de cómo se debe desencadenar el mundo y, en este sentido, los otros avances masivos de la inteligencia artificial. En el auge de Facebook y Google, hemos visto cómo el dominio en un nuevo mundo tecnológico puede conducir rápidamente a un poder asombroso sobre la sociedad, y la inteligencia artificial amenaza con ser incluso más transformadora que las redes sociales en sus efectos finales. ¿Cuál es el tipo de organización adecuado para construir y poseer algo de esta escala y ambición, con tal promesa y potencial de abuso?

¿O deberíamos construirlo en absoluto?

READ  Zelda: Tears Of The Kingdom Loading Sequence es una patente presentada por Nintendo

Orígenes de OpenAI Se remonta a julio de 2015, cuando un pequeño grupo de estrellas de la tecnología se reunieron para una cena privada en el Rosewood Hotel de Sand Hill Road, el corazón emblemático de Silicon Valley. La cena se llevó a cabo en medio de dos desarrollos recientes en el mundo de la tecnología, uno positivo y otro inquietante. Por otro lado, los avances radicales en el poder computacional y algunos nuevos avances en el diseño de redes neuronales han creado una sensación palpable de entusiasmo en el campo del aprendizaje automático. Se sintió que el largo «invierno de la IA», las décadas en las que el campo no estuvo a la altura de las expectativas iniciales, finalmente estaba comenzando a descongelarse. Un grupo de la Universidad de Toronto entrenó un programa llamado AlexNet para identificar clases de objetos en imágenes (perros, castillos, tractores, mesas) con un nivel de precisión mucho más alto que el que cualquier red neuronal había logrado anteriormente. Google se abalanzó rápidamente para contratar a los creadores de AlexNet, mientras que al mismo tiempo adquiría DeepMind y comenzaba su propia iniciativa llamada Google Brain. La adopción generalizada de asistentes inteligentes como Siri y Alexa ha demostrado que incluso los agentes escritos pueden ser excelentes clientes.

Pero durante el mismo período de tiempo, ha habido un cambio sísmico en las actitudes públicas hacia las grandes empresas de tecnología, con empresas que alguna vez fueron populares como Google o Facebook criticadas por su poder casi monopólico, la amplificación de las teorías de conspiración y la despiadada atracción de nuestra atención hacia alimenta el algoritmo. Las preocupaciones a largo plazo sobre los peligros de la inteligencia artificial han surgido en las páginas editoriales y en la plataforma TED. Nick Bostrom de la Universidad de Oxford ha publicado su libro Superintelligence, que presenta un conjunto de escenarios en los que la IA avanzada podría desviarse de los intereses de la humanidad, con consecuencias potencialmente nefastas. A finales de 2014, Stephen Hawking le dijo a la BBC Que «el desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana». Parecía que el ciclo de consolidación corporativa que marcó la era de las redes sociales ya estaba ocurriendo con la IA, pero esta vez, los algoritmos podrían no solo estar sembrando polarización o vendiendo nuestra atención al mejor postor, sino que podrían terminar destruyendo a la humanidad. sí mismo. Una vez más, toda la evidencia indicaba que este poder estaría controlado por unas pocas corporaciones gigantes en Silicon Valley.

READ  Twitch apunta a las transmisiones a tope con una nueva regla que prohíbe "contenido que se centre en partes íntimas del cuerpo durante un período prolongado de tiempo"

La agenda para la cena en Sand Hill Road en una noche de julio no era más que ambiciosa: descubrir la mejor manera de dirigir la investigación de IA hacia los resultados más positivos posibles y evitar las consecuencias negativas a corto plazo que han estropeado la era de la web 2.0 y a largo plazo. -término amenazas existenciales. A partir de esa cena, una nueva idea comenzó a tomar forma, una que rápidamente se convirtió en una obsesión de tiempo completo para Sam Altman de Y Combinator y Greg Brockman, quien recientemente había dejado Stripe. Curiosamente, la idea no era tanto técnica como organizativa: si la IA va a dar rienda suelta al mundo de una manera segura y útil, requerirá innovación en términos de gobernanza, incentivos y participación de las partes interesadas. El camino técnico para lo que el campo llama Inteligencia General Artificial, o AGI, aún no estaba claro para el grupo. Pero las inquietantes predicciones de Bostrom y Hawking los convencieron de que la realización de la IA por parte de la IA aumentaría una asombrosa cantidad de poder y carga moral en quien finalmente la inventara y controlara.

En diciembre de 2015, el grupo anunció la formación de una nueva entidad llamada OpenAI. Altman firmó como director ejecutivo de la empresa, con Brockmann supervisando la tecnología; Otro asistente a la cena, el cofundador de AlexNet, Ilya Sutskiver, ha sido contratado por Google para ser el jefe de investigación. (Elon Musk, quien también estuvo presente en la cena, se unió a la junta, pero se fue en 2018). Entrada en el blogBrockmann y Sotscover establecieron el alcance de su ambición: «OpenAI es una empresa de investigación de inteligencia artificial sin fines de lucro», escribieron. Agregaron: “Nuestro objetivo es desarrollar la inteligencia digital de una manera que sea más probable que beneficie a la humanidad en su conjunto, sin las restricciones de la necesidad de generar un retorno financiero. Y con espíritu de libertad, de la forma más amplia e igualitaria posible. »

READ  Cambié a un adaptador Unifi de 8 puertos después de años y años de trabajar como temporal en Texas - Ars Technica

Los fundadores de OpenAI publicarán un archivo Carta General Tres años después, articulando los principios básicos detrás de la nueva organización. El documento se ha interpretado fácilmente como una investigación inexacta sobre el mantra «no seas malvado» de Google desde sus inicios, un reconocimiento de que maximizar los beneficios sociales y minimizar el daño de las nuevas tecnologías no siempre fue una simple aritmética. Si bien Google y Facebook han alcanzado el dominio global a través de algoritmos de código cerrado y redes propietarias, los fundadores de OpenAI prometieron ir por el otro lado, compartiendo libremente nuevas investigaciones y códigos con el mundo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *