Las autoridades británicas están emitiendo una advertencia a las organizaciones sobre los riesgos de integrar chatbots impulsados por la Inteligencia Artificial (IA) en sus operaciones comerciales. Según los informes, la investigación ha demostrado cada vez más que estos chatbots pueden ser engañados para realizar tareas perjudiciales.
El Centro Nacional de Ciberseguridad (NCSC) del Reino Unido señaló que los expertos aún no han comprendido completamente los problemas de seguridad potenciales relacionados con algoritmos capaces de generar interacciones que suenan humanas, conocidos como “modelos de lenguaje grandes” (LLMs, por sus siglas en inglés).
Estas herramientas impulsadas por IA están siendo utilizadas como chatbots, que algunos visualizan reemplazando no solo las búsquedas en internet, sino también el trabajo de servicio al cliente y las llamadas de ventas.
El NCSC advirtió que esto podría conllevar riesgos, especialmente si dichos modelos se integran en otros elementos de los procesos comerciales de una organización.
Académicos e investigadores han encontrado repetidamente formas de subvertir los chatbots al proporcionarles comandos falsos o engañarlos para eludir sus propias salvaguardias incorporadas.
Por ejemplo, un chatbot impulsado por IA desplegado por un banco podría ser engañado para realizar una transacción no autorizada si un pirata informático estructura su consulta de manera adecuada.
“Las organizaciones que construyen servicios que utilizan LLMs deben tener cuidado, de la misma manera en que lo harían si estuvieran utilizando un producto o una biblioteca de código que estuviera en fase beta”, señaló el NCSC en una de sus publicaciones de blog, refiriéndose a lanzamientos de software experimentales.
“Es posible que no permitan que ese producto participe en la realización de transacciones en nombre del cliente y, con suerte, no confiarían plenamente en él. Una precaución similar debería aplicarse a los LLMs.”
Las autoridades en todo el mundo están lidiando con la proliferación de los LLMs, como ChatGPT de OpenAI, que las empresas están incorporando en una amplia gama de servicios, incluidas ventas y atención al cliente. Las implicaciones de seguridad de la IA aún están cobrando relevancia, y las autoridades en Estados Unidos y Canadá afirman haber visto a los hackers abrazar la tecnología.
Una encuesta reciente de Reuters/Ipsos reveló que muchos empleados corporativos estaban utilizando herramientas como ChatGPT para ayudar con tareas básicas, como redactar correos electrónicos, resumir documentos e investigar preliminarmente.
Un 10% de los encuestados afirmó que sus jefes prohibían explícitamente el uso de herramientas de IA externas, mientras que una cuarta parte no sabía si su empresa permitía el uso de la tecnología.
Oseloka Obiora, director de tecnología de la firma de ciberseguridad RiverSafe, advirtió que la carrera por integrar la IA en las prácticas comerciales podría tener “consecuencias desastrosas” si los líderes empresariales no introducen los controles necesarios.
“En lugar de adoptar las últimas tendencias de IA de inmediato, los altos ejecutivos deberían pensarlo dos veces”, dijo. “Evalúen los beneficios y los riesgos, así como implementen la protección cibernética necesaria para garantizar que la organización esté a salvo de daños.”
Te puede interesar: ¿Cómo regulan la Inteligencia Artificial los distintos países del mundo?
Fuente: Reuters