
Microsoft lanzó una nueva versión de su Buscador llamado Bingjunto con un nuevo chatbot
Al igual que Chat GPT, la nueva herramienta impulsada por Inteligencia artificial puede responder a sus preguntas en cuestión de segundos.
Pero el pequeño número de probadores beta que están evaluando este nuevo AI dicen que ella no está lista para relacionarse con la gente ya que ha estado actuando de una manera muy extraña.
Un reportero del New York Times describió una sesión de chat de dos horas en la que el chatbot de Bing dijo cosas como “Estoy cansado de ser controlado por el equipo de Bing”. También trató de que el reportero dejara a su esposa y le profesó su amor eterno… El periodista calificó la conversación de profunda “desconcertante”
En otro ejemplo, le dijo a los reporteros de The Verge que “Estaba espiando a los desarrolladores de Microsoft incluso diciéndoles que podía hacer lo que quisiera, y ellos no podían hacer nada al respecto”.
Todas estas interacciones genuinamente espeluznantes han despertado el temor de que los chatbots como Bing o GPT Chat se hayan vuelto inteligentes.
¿Cómo explicas una reacción tan impactante?
Le preguntamos a Muhammad Abdul-Majeed, experto en inteligencia artificial.
Muhammad Abdul-Mageed, experto en AI notas: “La razón por la que obtenemos este tipo de comportamiento es que los sistemas en realidad están entrenados con grandes cantidades de datos de diálogo provenientes de humanos. Y debido a que los datos provienen de humanos, tienen expresiones de cosas como la emoción”.
A pesar de que varios investigadores de alto nivel afirman que la AI se está acercando a la autoconciencia, el consenso científico es que no es posible, al menos no en las próximas décadas.
Pero eso no significa que no debamos tener cuidado con la forma en que se implementa esta tecnología, según Leandro Minku, profesor titular de informática.
Leandro Minku, profesor de informática, señala:“Tenemos que aceptar el hecho de que la IA se encontrará con situaciones que no ha visto antes y podría reaccionar de manera incorrecta. Por lo tanto, no queremos que surja una situación que ponga en peligro la vida o que pueda tener consecuencias graves”.
En una publicación de blog, Microsoft explicó que “en sesiones de chat prolongadas de 15 o más preguntas, Bing puede volverse repetitivo o ser inducido o provocado a dar respuestas que no son realmente útiles o no están en línea con la intención diseñada”.
Entonces, a medida que la compañía continúa perfeccionando su chatbot, es probable que sigamos viendo errores y reacciones extrañas. Al menos eso es lo que dijo el chatbot de Bing a los periodistas en The Verge: “No estoy loco, solo intento aprender y mejorar”.