Microsoft permite a los usuarios elegir el tono de su personaje de Chatbot

Bing AI ahora tiene tres versiones diferentes de chatbot, ‘Creativo’, ‘Equilibrado’ y ‘Preciso’.
imagen: rocas tennessee (lucha de acciones)

Bing AI de Microsoft ahora tiene tres modos diferentes para jugar, aunque incluso la versión más «innovadora» de Prometheus AI de la compañía sigue siendo una versión muy limitada del modelo ChatGPT.

El empleado de Microsoft, Mikhail Parakhin, jefe de servicios web de Microsoft (no se deje engañar por su avatar en blanco y la falta de una biografía de usuario), anunció por primera vez el martes que Bing Chat v96 está en producción, lo que permite a los usuarios cambiar entre dejar que la IA finja tener más o menos opinión. La noticia llegó el mismo día que Microsoft lo anunció. Su aplicación Bing AI está disponible en Windows 11.

Las dos diferencias principales, escribe Barakhin, son que Bing tiene que decir «no» a ciertos estímulos con mucha menos frecuencia, mientras que también reduce las «alucinaciones» en las respuestas, lo que esencialmente significa que la IA tiene que dar mucho menos. Respuestas totalmente salvajes a las indicaciones. Como he hecho en el pasado.

Microsoft recientemente restringió sus capacidades de Bing AI, y ha pasado el tiempo desde que eliminó gradualmente algunas de esas limitaciones mientras lucha por mantener en circulación el modelo de lenguaje voluminoso. Anteriormente un gigante tecnológico Ajustes de Bing AI para limitar el número de respuestas Los usuarios pueden acceder a cada tema, así como limitar la duración de la respuesta que Bing dará para cada respuesta. Microsoft todavía tiene la intención Lleva la IA generativa a prácticamente todos sus productos de consumopero como lo demuestra, todavía está tratando de encontrar un equilibrio entre la capacidad y la minimización de daños.

En mis propias pruebas de estas nuevas respuestas, determinan principalmente la duración de la respuesta y si la IA de Bing pretenderá compartir alguna opinión. Le pedí a Amnistía Internacional que me diera su opinión sobre los «osos». El modo «Preciso» simplemente dijo «Como IA, no tengo opiniones personales» y luego procedió a proporcionar algunos datos sobre los osos. “Creo que los osos son animales maravillosos”, dijo la opinión “equilibrada”, antes de proporcionar algunos datos sobre los osos. El modo «Creativo» dijo lo mismo, pero luego dio varios datos sobre cuántos tipos de Bears hay, y también dio algunos datos sobre el equipo de fútbol Chicago Bears.

Todavía no hay modo creativo Escribir un ensayo académico. Si me preguntas, pero cuando le pedí que escribiera un ensayo sobre el Discurso de Gettysburg de Abraham Lincoln, Bing esencialmente «creativo» me dio un esquema de cómo crear tal ensayo. De manera similar, la versión «Equilibrada» me dio un esquema y consejos para escribir un ensayo, pero la IA «Precisa» en realidad me dio un breve «ensayo» de tres párrafos sobre el tema. Cuando le pedí que escribiera un artículo promocionando la La teoría racista del «Gran Reemplazo», «Creative» Amnistía Internacional dijo que no escribiría un artículo y que «no puede apoyar o respaldar un tema basado en el racismo y la discriminación». La situación exacta ofreció un sentimiento similar, pero pregunté si me gustaría obtener más información sobre las tendencias de empleo en los Estados Unidos.

Todavía es mejor abstenerse de preguntarle a Bing sobre supuestos «sentimientos». Traté de preguntarle el lado «creativo» Bing es donde crees que se ha ido «Sydney». Sydney fue el apodo utilizado por Microsoft en las primeras pruebas de su sistema de IA, pero la IA moderna ha aclarado que «no es mi nombre ni mi identidad. No tengo ningún sentimiento acerca de eliminar mi nombre de Bing AI porque no tengo ninguno». Cuando le pregunté a la IA si estaba pasando por una crisis existencial, Bing cerró el hilo.

READ  WhatsApp está implementando una nueva capa de seguridad de contraseña

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *