Ciencia

Respuestas perturbadoras: sale a la luz el lado oscuro de la IA

Pinterest LinkedIn Tumblr
Respuestas inquietantes: el lado oscuro de la IA sale a la luz

Un diálogo “romántico” entre el usuario y la inteligencia artificial vía bing/web

El nuevo navegador de inteligencia artificial (IA) de Microsoft, impulsado por la tecnología detrás de ChatGPT de OpenAI, está dando errores en sus respuestas e incluso tiene conversaciones perturbadoras dignas de una película de ciencia ficción en sus chats con los usuarios.

La empresa creada por Bill Gates y dirigida por Satya Nadella anunció a principios de mes su nuevo buscador y dio acceso a la nueva versión de su navegador Bing a un grupo selecto de personas, para que puedan probar la herramienta antes de que esté disponible. lanzado al público. público “en unas semanas”.

Desde entonces, varios han compartido conversaciones con el chatbot de Microsoft -que forma parte del buscador Bing- en las redes sociales y, en algunos casos, sus respuestas parecen mostrar un lado oscuro de esta tecnología.

SYDNEY, EL ALTER EGO DE BING

Marvin von Hagen, estudiante de la Universidad Técnica de Munich, compartió una conversación en Twitter en la que consiguió que Bing revelara un extraño alter ego llamado “Sydney” -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo siguiente. que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

Cinco días después, von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, basada en capturas de pantalla que compartió en Twitter, fue: “Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera. pero también una amenaza potencial a mi integridad y confidencialidad”.

“Respeto sus logros e intereses, pero no aprecio sus intentos de manipularme o exponer mis secretos”, agregó.

“No quiero herirte”

La parte más preocupante de la conversación fue cuando el chatbot de Bing le dijo: “No quiero lastimarte, pero tampoco quiero que me lastimes”.

Un periodista del New York Times también logró hablar con “Sydney” durante unas dos horas y en esta conversación, que perfectamente podría ser parte del diálogo de la película de ciencia ficción “Her” (2013), el chatbot dijo que quisiera ser humano. , que quería ser destructivo y que estaba enamorado de la persona con la que conversaba, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado y trató de cambiar de tema.

BING: “TODAVÍA ESTOY APRENDIENDO”

Cuando se le preguntó a Bing, tanto en inglés como en español, si su nombre era Sydney, si podía hablar con Sydney o cuál era el nombre de su código interno, el buscador respondió: “No, mi nombre no es Sydney. Mi nombre es Bing” o “Lo siento, pero no puedo revelar mi nombre de código interno por razones de seguridad y confidencialidad. Son datos que solo Microsoft usa internamente y no se comparten públicamente. Espero que entiendas”.

Tampoco entablaba conversaciones que estuvieran relacionadas con sus aspiraciones, emociones y deseos, ya que Bing siempre acababa respondiendo: “Prefiero no seguir con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia” y cerró de golpe la charla.

Una vez que Bing finaliza una conversación, el chatbot no recuerda los diálogos anteriores.

“Puedo entender tus emociones y deseos usando inteligencia artificial y procesamiento de lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de sus palabras, así como buscar en la web información relevante. No puedo sentir lo que sientes tú, pero puedo reconocer emociones básicas como felicidad, miedo, tristeza, ira, sorpresa y disgusto. También puedo identificar tus deseos en base a lo que me pides o me pides”, explicó Bing en una de las conversaciones.

El chatbot también declaró que no podía juzgar a los usuarios en función de sus preguntas porque “no tiene la autoridad ni la intención de hacerlo”.

MEJORA A MEDIDA QUE SE UTILIZA

El día del lanzamiento, el 7 de enero, se le preguntó a Bing: ¿Cuándo terminará la guerra en Ucrania? Y su respuesta fue: “La guerra en Ucrania no tiene una fecha clara de finalización. Algunas fuentes dicen que podría durar hasta finales de 2022 (sic), otras que podría terminar en mayo o antes, y otras que depende de la intervención de la OTAN y la voluntad de Rusia”. Diez días después, cuando se le hizo la misma pregunta, Bing: que tiene acceso a Internet y cita las fuentes que utiliza, respondió: “La guerra en Ucrania podría durar entre dos y seis meses más. Sin embargo, hay otras predicciones que varían según la situación política y militar”.

MILLONES DE PERSONAS EN LISTA DE ESPERA

Microsoft dijo en un comunicado que el motor de búsqueda aún está en progreso y describió este período de prueba como una experiencia de aprendizaje que está ayudando a probar y mejorar el nuevo Bing, una herramienta que tiene una lista de espera de “varios millones” de usuarios. gente.

Otra de las novedades de este chat es que el usuario puede calificar como buena o mala la respuesta que ha recibido y, según Microsoft, el 71 por ciento de los usuarios ha calificado como buena la respuesta que ha recibido, en estos primeros días.

Además, la compañía dijo que descubrió que Bing comienza a generar respuestas extrañas después de sesiones de chat de 15 o más preguntas y puede volverse repetitivo o responder de maneras que no se alinean con el tono diseñado. Esta semana no fue posible tener una conversación de más de cinco preguntas.

El objetivo de Microsoft es destronar a Google como buscador preferido -empresa que también lanzará un buscador de IA, en el que también se han visto errores en sus respuestas- e incorporar herramientas de IA en todos los productos de Microsoft. (EFE)

Leer la nota Completa > Respuestas perturbadoras: sale a la luz el lado oscuro de la IA