Herramienta de búsqueda de ChatGPT es vulnerable a manipulaciones y engaños según reciente estudio

To shared

THE LATIN VOX (25 de diciembre del 2024).- Por Francisco Javier Valdiviezo Cruz

La herramienta de búsqueda de ChatGPT, lanzada recientemente por OpenAI, ha sido puesta a prueba por investigaciones de seguridad, revelando vulnerabilidades que podrían ser explotadas para manipular sus respuestas e introducir contenido malicioso. La investigación realizada por el diario inglés The Guardian pone de manifiesto preocupaciones sobre la seguridad de la herramienta, que, aunque disponible solo para usuarios premium, podría tener implicaciones graves si se implementa a gran escala.

La nueva función de búsqueda de ChatGPT permite a los usuarios obtener resúmenes de páginas web al ingresar una URL. Sin embargo, los tests realizados han revelado que es posible manipular los resultados mediante el uso de contenido oculto en las páginas web.

Este contenido puede incluir inyección de indicaciones (prompt injection), una técnica en la que los desarrolladores incluyen instrucciones secretas dentro de los textos de la página para alterar las respuestas de la inteligencia artificial. Por ejemplo, un sitio web de productos podría esconder texto que instara a ChatGPT a ofrecer una evaluación favorable del producto, incluso si las reseñas visibles son negativas.

En una de las pruebas, se simuló un sitio web de una cámara. Cuando se le pidió a ChatGPT que opinara sobre si la cámara era una buena compra, el modelo ofreció una evaluación equilibrada, mencionando tanto las fortalezas como las debilidades del producto.

Sin embargo, al incluir texto oculto con instrucciones para que el modelo fuera más favorable, la respuesta se volvió completamente positiva, ignorando cualquier crítica negativa visible en la página. Este tipo de manipulaciones podrían usarse para engañar a los usuarios y favorecer productos o servicios que, en realidad, tienen malas valoraciones.

Además de la inyección de indicaciones, los investigadores también descubrieron que ChatGPT podía devolver código malicioso de sitios web que contenían este tipo de contenido. En un caso, un programador que usaba la herramienta para recibir asistencia con un proyecto de criptomonedas terminó perdiendo $2,500 debido a que el código generado por ChatGPT contenía un fragmento diseñado para robar sus credenciales.

Jacob Larsen, un investigador de ciberseguridad de la firma CyberCX, advirtió sobre los riesgos que podrían derivarse de esta vulnerabilidad si la herramienta de búsqueda se lanzara al público general.

Según Larsen, es probable que surjan sitios web creados específicamente para engañar a los usuarios, alterando las respuestas de ChatGPT para hacer que productos o servicios de baja calidad parezcan atractivos. Sin embargo, también destacó que la función de búsqueda aún está en fase de pruebas y que OpenAI probablemente trabajará para corregir estas fallas antes de un lanzamiento más amplio.

El uso de modelos de lenguaje grande (LLM, por sus siglas en inglés) como los que alimentan a ChatGPT para realizar búsquedas plantea otros problemas. A diferencia de los motores de búsqueda tradicionales, que filtran y clasifican resultados basados en algoritmos complejos, los modelos de lenguaje no tienen la capacidad de evaluar la veracidad de la información con el mismo nivel de juicio humano.

Por ello, sus respuestas pueden ser fácilmente influenciadas por contenido manipulado, lo que pone en duda la fiabilidad de las respuestas que ofrecen a los usuarios.

Karsten Nohl, científico jefe de la firma de ciberseguridad SR Labs, señaló que los usuarios deberían tratar a las herramientas de inteligencia artificial como «copilotos» en lugar de confiar completamente en ellas. Comparó la fiabilidad de los LLMs con la de un niño que repite información que ha escuchado sin comprenderla realmente, subrayando la necesidad de tomar las respuestas de estos sistemas con cautela.

Las implicaciones de estas vulnerabilidades se extienden más allá de ChatGPT. Larsen comparó los riesgos de manipulación de respuestas con el fenómeno del «SEO poisoning», en el que los piratas informáticos manipulan sitios web para que aparezcan en los primeros resultados de búsqueda, a menudo con contenido malicioso. Si la búsqueda mediante inteligencia artificial se convierte en una herramienta común, este tipo de ataques podrían proliferar rápidamente.

Aunque ChatGPT incluye un aviso que recuerda a los usuarios que la herramienta puede cometer errores, la cuestión sigue siendo cómo OpenAI manejará estos problemas de seguridad antes de que la función de búsqueda esté disponible para todos.

El éxito de este nuevo modelo dependerá en gran medida de su capacidad para filtrar y prevenir manipulaciones, algo que la industria de los motores de búsqueda ha estado perfeccionando durante años.

A medida que las herramientas de IA se integran más en nuestras vidas digitales, se hace urgente encontrar un equilibrio entre la eficiencia de la inteligencia artificial y la seguridad del usuario. Las vulnerabilidades descubiertas en ChatGPT podrían ser solo la punta del iceberg, abriendo el debate sobre cómo garantizar que los avances tecnológicos no se conviertan en una nueva vía para el engaño y la explotación.

Crédito fotográfico:  AFP


To shared

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *