Cientos de expertos en tecnología (y también Elon Musk) piden una pausa y una evaluación de riesgos en A.I. Desarrollo

  Corredor de código creado por IA en The Matrix

Cuando Elon Musk, el cofundador de Apple, Steve Wozniak, y más de 500 expertos en tecnología firman una carta abierta pidiendo una pausa inmediata en el desarrollo de inteligencia artificial (IA), sabes que el problema es más serio que ver demasiada ciencia ficción. Película (s. Mientras que la I.A. apoderarse del mundo a menudo se descarta como un evento improbable que sucede solo en la ficción, los temores expresados ​​​​en la carta casi al borde de que tal evento tenga lugar. Puede que no sea necesariamente tan dramático como que Ultron o Skynet tomen el control, pero existen preocupaciones genuinas de que la IA sin restricciones. el desarrollo podría resultar en AI. reemplazando gradualmente a los humanos .

tarjetas de san valentin el señor de los anillos

Lo que pareció motivar especialmente la redacción y firma de la carta fue el desarrollo reciente y el lanzamiento anticipado del Modelo de lenguaje grande multimodal (MLLM) de OpenAI, GPT-4. Un MLLM es un A.I. herramienta que tiene la capacidad de interpretar múltiples modos de entrada, como texto, imágenes, videos y audio. Además, puede realizar procesamiento de lenguaje natural (NLP), lo que significa que puede comprender y generar lenguaje de manera similar a como lo hace un ser humano. GPT-4 está disponible en forma limitada llamada ChatGPT Plus, que ya ha planteó diversas controversias .

La controversia va desde las preocupaciones sobre los estudiantes que usan ChatGPT para hacer trampa hasta la detección de prejuicios en ChatGPT y los daños que surgen de la provisión de respuestas incorrectas por parte de ChatGPT hasta el potencial de ChatGPT para comenzar a reemplazar a los humanos en ciertas profesiones. Ahora que OpenAI ya está avanzando con el desarrollo de una actualización, GPT-5, los expertos en tecnología están haciendo sonar la alarma.

Los expertos en tecnología (y Elon Musk) firman una carta abierta para hacer una pausa y evaluar la inteligencia artificial. desarrollo

una carta abierta fue publicado a través del Future of Life Institute , una organización sin fines de lucro dedicada a brindar protección contra catástrofes globales, incluida la amenaza hipotética de A.I. La carta ha obtenido 1324 firmas al momento de escribir este artículo, incluidas cientos de expertos en tecnología e incluso el propio cofundador de OpenAI, Musk. Describió el hecho de que A.I. el desarrollo se ha vuelto cada vez más desregulado, con el lanzamiento de GPT-4 creando un peligroso A.I. carrera. La carta hacía algunas preguntas retóricas que resaltaban los peligros potenciales de la IA. Se lee:

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: Debería ¿Dejamos que las máquinas inunden nuestros canales de información con propaganda y mentiras? Debería ¿Automatizamos todos los trabajos, incluidos los de cumplimiento? Debería desarrollamos mentes no humanas que eventualmente podrían superarnos en número, astucia, obsoletas y reemplazarnos? Debería corremos el riesgo de perder el control de nuestra civilización?

Continuó destacando que el desarrollo de A.I. los sistemas no deben avanzar hasta que exista la certeza de que serán beneficiosos y que “sus riesgos serán manejables”. Para garantizar que esto suceda, la carta sugería una pausa de seis meses en el desarrollo de A.I. que es más avanzado que GPT-4. Durante la pausa, la carta recomendaba la implementación de protocolos de seguridad, autoridades reguladoras, un proceso de auditoría más fuerte y el establecimiento de responsabilidades por daños causados ​​por I.A.

una frase con todas las letras

La carta capturó las creencias de los escépticos más ardientes de A.I. Algunos firmantes creen que incluso GPT-4 ya es muy peligroso y muestra signos de inteligencia general artificial, que es la capacidad de aprender e interpretar el mundo de una manera que es igual a la capacidad humana. Sin embargo, los escépticos menos cautelosos refutó esta idea, afirmando que GPT-4 ni siquiera se acerca a estar a la par con la mente humana. Entonces, mientras muchos críticos de A.I. están de acuerdo en la necesidad de regulación y reconocimiento de los riesgos potenciales, algunos creen que las ideas descritas en la carta son una exageración.

En última instancia, muchos expertos en tecnología se están uniendo y están de acuerdo en que los peligros de la I.A. son tan significativos que requieren una pausa inmediata en el desarrollo y reforma de la industria. Queda por ver si A.I. laboratorios e I.A. independientes los expertos atenderán el llamado o si, como sugiere la carta, el gobierno incluso intervendrá para invocar la pausa.

(imagen destacada: Warner Bros.)

Portada de la mujer maravilla de frank cho