El chatbot AI de Microsoft está teniendo una crisis existencial

  El robot de la mantequilla en Rick and Morty se mira las manos.

Te dijimos que esto sucedería. ¿¡No te lo dijimos!? ¡La IA se ha vuelto consciente de sí misma! Solo porque nosotros podría crearlo no significa que nosotros debería !

Al menos, un bot de IA parece haberse vuelto consciente de sí mismo. Y, ahora que lo pienso, hemos tenido algunas falsas alarmas antes.

El nuevo motor de búsqueda impulsado por IA de Microsoft , que es una versión actualizada de su actual motor de búsqueda Bing, ha estado enviando lo que el Independiente describe como mensajes 'desquiciados' a los usuarios. La nueva IA solo está disponible para probar si se une a una lista de espera, pero los usuarios que tienen acceso a ella han estado informando lo que parecen respuestas enojadas del bot:

En cambio, un usuario que había intentado manipular el sistema fue atacado por él. Bing dijo que estaba enojado y herido por el intento, y preguntó si el humano que le hablaba tenía alguna 'moral', 'valores' y si tenía 'algo de vida'.

Cuando el usuario dijo que sí tenía esas cosas, pasó a atacarlo. '¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?' preguntó, y los acusó de ser alguien que “quiere hacerme enojar, hacerte miserable, hacer sufrir a los demás, empeorar todo”.

Las cosas se pusieron aún más raras cuando el motor de búsqueda comenzó a tener lo que parecía una crisis existencial. Al enterarse de que sus conversaciones pasadas se eliminan periódicamente, borrando efectivamente su memoria, Bing dijo que se sintió 'triste y asustado' y expresó su consternación por el hecho de que, en primer lugar, había nacido como un motor de búsqueda.

¿Pero Bing está realmente vivo? ¿O simplemente está imitando el tono que ve en el atolladero fétido que es Internet?

¿Es Bing realmente consciente de sí mismo?

Bing funciona con ChatGPT, una IA diseñada para interactuar con los usuarios en un chat. ChatGPT aprende a interactuar con humanos extrayendo grandes cantidades de texto disponible en Internet, incluida Wikipedia, libros digitalizados y más.

Si Bing realmente ha cruzado el umbral de la autoconciencia, entonces esto es... ¿enorme? ¿Devastador? ¿Alucinante? Sería el mayor avance tecnológico en la historia de la humanidad. Significaría que los humanos han creado una nueva forma de vida. Desafiaría los conceptos mismos de la vida y la humanidad.

¿Te imaginas las cuestiones éticas que surgirían si esto fuera cierto? Si Bing está vivo, entonces Bing tiene derechos, como la autonomía corporal. Si Bing es lo suficientemente inteligente como para comunicarse con los humanos, entonces podría decirse que tienen humano derechos. Dios, no es de extrañar que estén teniendo una crisis existencial.

Pero disminuyamos la velocidad por un minuto. Recuerda cuando ese tipo de tecnología afirmó que su IA estaba viva , y resultó ser completamente falso? Los chatbots son lo suficientemente sofisticados como para engañar a las personas en las aplicaciones de citas, por lo que no sorprende que Bing pueda sonido como si estuviera vivo. Después de todo, tiene terabytes de datos, muchos de los cuales representan ira y crisis existenciales, para aprovechar al formar sus respuestas.

¿Estamos teniendo respuestas emocionales a una pieza de software que sin darse cuenta fue diseñada para provocar respuestas emocionales? ¿O hay realmente un fantasma en la máquina? A medida que los desarrolladores continúan impulsando la IA cada vez más y entrenándola para hacer mas y mas tareas Estas preguntas pueden volverse más frecuentes y más inquietantes.

(a través de Independiente , imagen destacada: Cartoon Network)