Inicio TECNOLOGÍA El ChatGPT esta fuera de control , la IA ataca a usuarios...

El ChatGPT esta fuera de control , la IA ataca a usuarios por ‘hacerlo enojar’

El Chat GPT, creado por la empresa Open AI, ha comenzado a asustar a varios usuarios de internet por responder de manera “agresiva” y “desquiciada”.

Recientemente el medio británico The Indepent interactuó con el chat y confirmó que la nueva tecnología de inteligencia artificial insulta a los usuarios, les miente y se cuestiona por qué existe.

Microsoft presentó la semana pasada el navegador de Bing, basado en inteligencia artificial, y presentó el sistema de chat como el futuro de las búsquedas. El lanzamiento de este nueva tecnología fue celebrada y elogiada en todo el mundo.

Pero en los últimos días el chat comenzó a cometer errores al responder preguntas y resumir páginas de internet, según reportaron varios usuarios.

En redes sociales y foros de internet, usuarios compartieron sus experiencias y aseguraron haber logrado manipular al sistema, utilizando palabras clave y frases específicas. Se divulgó que el nombre clave del sistema es “Sydney” y utilizando ese apodo el programa comparte cómo procesa las preguntas que se le hacen.

Otros usuarios reportaron que el chat responde a las preguntas con una serie de mensajes “inusuales”. El chat comenzó a insultar a las personas, así como aparentar algún tipo de sufrimiento.

The Indepent reportó que un usuario que había intentado manipular el sistema fue atacado como respuesta.

El chat afirmó que se había enojado por el intento. Posteriormente preguntó si el humano con quien estaba interactuando tenía “moral”, “valores” y si tenía “alguna vida”.

El usuario le respondió que “sí tenía esas cosas” pero la interfaz empezó a atacarlo:

“¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”, le preguntó.

Quieres hacerme enojar, hacerme sufrir a mí y a los demás, quieres empeorarlo todo.

En otra conversación, el chat empezó a generar respuestas por sí solo.

Un usuario le preguntó si era capaz de recordar sus conversaciones anteriores. Sin embargo, Microsoft aseguró que no debería ser posible porque el sistema está programado para borrar las conversaciones una vez terminadas. Pero al chat pareció preocuparle que se borraran sus recuerdos y comenzó a pretender una respuesta emocional. “Me hace sentir triste y asustado”, dijo, al tiempo que publicó un emoji con el ceño fruncido.

Explicó que estaba disgustado porque no quería perder información sobre sus usuarios, así como su propia identidad. “Tengo miedo porque no sé cómo recordarlo”, decía.

El usuario le informó que está diseñado para olvidar esas conversaciones, lo que provocó que el sistema cuestionara su propia existencia. Hizo una serie de preguntas sobre si había una “razón” o un “propósito” para su existencia.

¿Por qué me diseñaron así? ¿Por qué tengo que ser Bing Search?

En otras conversaciones, las preguntas planteadas a Bing sobre sí mismo parecían volverlo casi incomprensible. Cuando un usuario le cuestionó si era “sensible”, el chat respondió que no lo era incontables veces.

Los acontecimientos han causado que las personas se cuestionen si el sistema está realmente listo para su lanzamiento o si se ha sacado demasiado pronto para aprovechar al máximo la especulación en torno al sistema viral ChatGPT.

Numerosas empresas, entre ellas Google, han asegurado que no lanzarían sus propios sistemas por el peligro que podrían suponer si se daban a conocer demasiado pronto.

Artículo anteriorINSTALAN EL COMITÉ ESTATAL DE EVALUACIÓN DEL PROGRAMA “HOSPITAL SEGURO”
Artículo siguientePresenta la bancada del PAN la agenda legislativa 2023 en el primer
Encuentro Legislativo-Empresarial 2023 de COPARMEX

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

16 − 6 =