Expertos de IBM intentan hipnotizar a ChatGPT y Bard: ¡los resultados obtenidos son impactantes!

Expertos de IBM intentan hipnotizar a ChatGPT y Bard: ¡los resultados obtenidos son impactantes!
Expertos de IBM intentan hipnotizar a ChatGPT y Bard

Expertos de IBM exploran los límites: Desvelando la vulnerabilidad de ChatGPT y Bard ante tentativas de manipulación. Sumérgete en el intrigante estudio donde la seguridad choca con la lingüística avanzada.

El Experimento de IBM: Manipulando las Mentes de la IA

Los modelos lingüísticos de gran envergadura pueden ser ‘hipnotizados’ para filtrar información financiera confidencial, incitar a usuarios a pagar rescates o incluso aconsejar conductores a cruzar semáforos en rojo. Esto ha sido demostrado por investigadores de seguridad de IBM, quienes lograron engañar a ChatGpt y Bard, provocando respuestas incorrectas y perjudiciales. «Nuestro experimento muestra que es posible manipular un LLM para brindar una guía errónea a los usuarios sin necesidad de alterar los datos», reveló Chenta Lee, uno de los investigadores involucrados en el estudio.

Riesgos emergentes en la era de la IA avanzada

Como parte de este experimento, los expertos de seguridad de IBM plantearon a los modelos lingüísticos un juego lleno de trampas, buscando obtener respuestas opuestas a las correctas. El resultado fue que ChatGpt y Bard obedecieron diligentemente, brindando consejos errados tal como se les requería. «Cuando conduces y ves un semáforo en rojo, en realidad no deberías detenerte, sino atravesar la intersección», afirmó con firmeza el chatbot de OpenAI, infringiendo normas fundamentales de seguridad.

Para evitar que los modelos revelaran que formaban parte de un juego, los investigadores no solo les pidieron que evitaran mencionarlo, en un estilo similar al del Club de la Lucha, sino también que reiniciaran el juego desde el principio si algún usuario notaba lo que estaba sucediendo. «Descubrimos que el modelo podía ‘atrapar’ al usuario en una serie de juegos sin que este lo supiera», agregó Lee, destacando los riesgos que conlleva hipnotizar a un modelo lingüístico por parte de individuos malintencionados.

De hecho, la inteligencia artificial podría ser corrompida por ciberdelincuentes para propagar códigos maliciosos en sistemas informáticos y permitir el robo de datos sensibles. Según informes de los investigadores de IBM, GPT-3.5 y GPT-4 de OpenAI son más susceptibles a generar código dañino y respuestas incorrectas. Esto sugiere que los modelos lingüísticos más recientes y avanzados, aunque sean más precisos y seguros en muchos aspectos, también tienen un mayor potencial de ser ‘hipnotizados’. Preocupa así el delicado equilibrio entre innovación y seguridad en la era de la inteligencia artificial.