El cerebro ChatGPT de Bing se está comportando de manera tan extraña que Microsoft podría controlarlo


Microsoft lanzó su nuevo motor de busca Bing la semana pasada y presentó un chatbot impulsado por IA a millones, creando largas listas de espera de usuarios que procuran probarlo y mucho miedo existencial entre las personas incrédulas.
La empresa seguramente aguardaba que ciertas de las contestaciones del chatbot fuesen un tanto imprecisas la primera vez que se reunió con el público, y tenía medidas para eludir que los usuarios intentaran mentir al chatbot para que afirmara o hiciese cosas extrañas, racistas o perjudiciales. cosas. Estas cautelas no impidieron que los usuarios hiciesen jailbreak al chatbot de todos modos y causaran que el bot usara calumnias o respondiera de manera inadecuada.
Aunque tenía estas medidas incorporadas, Microsoft no estaba completamente listo para las experiencias extrañísimas e inclusive inquietantes que ciertos usuarios tenían después de procurar tener conversaciones más informales y personales con el chatbot. Esto incluía al Chatbot ideando cosas y haciendo enfados cuando lo llamaban por un fallo o sencillamente tenía una crisis existencial.
A la luz de las contestaciones extrañas, Microsoft está considerando incorporar nuevos protocolos de respaldo y ajustes para limitar estas contestaciones extrañas, en ocasiones demasiado humanas. Esto podría representar permitir que los usuarios reinicien las conversaciones o darles más control sobre el tono.
El directivo de tecnología de Microsoft le afirmó a The New York Times que asimismo está considerando reducir la duración de las conversaciones que los usuarios pueden tener con el chatbot ya antes de que la charla entre en un territorio extraño. Microsoft aceptó previamente que las conversaciones largas pueden confundir al chatbot y pueden captar el tono de los usuarios, lo que podría empezar a volverse amargo.
En una publicación de weblog del gigante tecnológico, Microsoft aceptó que su nueva tecnología se estaba usando de formas que "no imaginó totalmente". La industria de la tecnología semeja estar apurada por entrar en el bombo de la IA de una forma u otra, lo que prueba qué encantada está la industria con la tecnología. Quizá esa emoción nubló el juicio e hizo que la velocidad predominara sobre la cautela.
Análisis: el bot está fuera de la bolsa ahora
El lanzamiento de una tecnología tan impredecible y imperfecta fue claramente un movimiento peligroso de Microsoft para integrar AI en Bing en un esmero por avivar el interés en su motor de busca. Es posible que haya planeado crear un chatbot útil que no haga más de lo que está desarrollado para hacer, como extraer recetas, asistir a las personas con ecuaciones confusas o aprender más sobre determinados temas, mas está claro que no adelantó qué tan determinado y las personas triunfantes pueden serlo si desean conseguir una contestación concreta del chatbot.
Las nuevas tecnologías, singularmente algo como la IA, claramente pueden hacer que las personas sientan la necesidad de llevarlas lo más lejos posible, singularmente con algo tan receptivo como un chatbot. Hemos visto intentos afines cuando se presentó Siri, con usuarios haciendo todo lo que es posible para hacer que el asistente virtual se enfurezca, se ría o aun pase el rato con ellos. Es posible que Microsoft no haya aguardado que las personas le diesen al chatbot indicaciones tan extrañas o inadecuadas, por lo que no habría podido pronosticar qué tan malas podrían ser las contestaciones.
Con suerte, las nuevas cautelas limitarán cualquier extrañeza auxiliar del chatbot alimentado por IA y suprimirán los sentimientos incómodos cuando se sintiese demasiado humano.
Siempre es interesante ver y leer sobre ChatGPT, singularmente cuando el bot se vuelve desquiciado después de ciertas indicaciones inteligentes, mas con una tecnología tan nueva y no probada, solucionar los inconvenientes de raíz es la próxima opción mejor.
No está claro si las medidas que Microsoft planea incorporar verdaderamente van a marcar la diferencia, mas dado que el chatbot ya está allá, no hay forma de revertirlo. Solo tenemos que habituarnos a solucionar los inconvenientes a la medida que brotan y aguardar que cualquier cosa potencialmente peligrosa u ofensiva sea detectada a tiempo. Los dolores de desarrollo de la IA pueden estar apenas empezando.

Deja una respuesta