Los casos de uso de negocios de IA generativa continúan creciendo a medida que la tecnología se desgrana en todo tipo de productos, servicios y tecnologías.
Al mismo tiempo, las implicaciones de seguridad de la evolución de las capacidades generativas de IA continúan en los titulares.
Una encuesta reciente de Salesforce a más de 500 líderes senior de TI reveló que, aunque la mayoría (67%) está priorizando la IA generativa para su negocio en los próximos 18 meses.
Casi todos admiten que se necesitan medidas adicionales para abordar los problemas de seguridad y equiparse para aprovechar con éxito la tecnología.
La mayoría de las organizaciones comprarán (no construirán) IA generativa y, es posible, que muchas ni siquiera compren IA generativa directamente, sino que la reciban a través de integraciones agrupadas.
Esto obliga a los líderes de seguridad a invertir tiempo para comprender los diferentes casos de uso de IA generativa dentro de sus negocios, así como sus riesgos asociados.
Un nuevo informe de Forrester ha revelado son los departamentos comerciales con los que tienen mayor probabilidad de adoptar la IA generativa.
También revela los principales casos de uso de esta tecnología, así como las amenazas y riesgos de seguridad contra los que los equipos deberán defenderse a medida que la tecnología se generalice.
Según el informe Securing Generative AI de Forrester, los siete casos de uso más probables para esta tecnología en las organizaciones, junto con sus amenazas y riesgos de seguridad relacionados son los siguentes:
Los generadores de texto permiten a los especialistas en marketing producir – instantáneamente – borradores para las campañas.
Esto, según Forrester, introduce fuga de datos, exfiltración de datos y amenazas de inteligencia competitiva.
Los riesgos incluyen problemas de relaciones públicas / clientes relacionados con la publicación del texto debido a procesos deficientes de supervisión y gobernanza antes de la publicación.
En este punto, Forrester destaca que las herramientas de generación de imágenes inspiran a los diseñadores y les permiten maquetar ideas con un mínimo de tiempo / esfuerzo.
Según escribieron los investigadores en el informe, también se pueden integrar en flujos de trabajo más amplios.
Esto, según loss analista de Forrester, introduce:
Los riesgos a considerar son las restricciones de diseño y las políticas que no se siguen debido a problemas de integridad de datos.
Esto son mencionar los posibles problemas de derechos de autor / IP del contenido generado.
Los programadores utilizan modelos de lenguaje grande (LLM) para encontrar errores en el código y generar documentación automáticamente.
Esto introduce la exfiltración de datos, la fuga de datos y las amenazas a la integridad de los datos.
Forrester señala, además, que la documentación producida puede correr el riesgo de revelar detalles importantes del sistema que una empresa normalmente no revelaría.
TuringBots ayuda a los desarrolladores a escribir prototipos de código e implementar sistemas de código complejos.
Pero, los investigadores del estudio señala que esto introduce problemas de seguridad de código, manipulación de datos, ransomware y robo de IP.
Los riesgos potenciales son:
La IA generativa permite a los científicos de datos producir y compartir datos para entrenar modelos sin arriesgar la información personal.
Pero, esto introduce el envenenamiento de datos, la desofuscación de los mismos, así como amenazas adversas de aprendizaje automático.
El riesgo asociado se relaciona con el modelo de generación de datos sintéticos que se realiza mediante ingeniería inversa:
“Lo cual permite a los adversarios identificar el origen de los datos utilizados”, escribió Forrester.
La generación a través de IA ayuda a los equipos de ventas a producir ideas, utilizar un lenguaje inclusivo y crear nuevo contenido.
Esto introduce la manipulación de datos, la exfiltración de datos y las amenazas de cumplimiento normativo.
“Los equipos de ventas podrían violar las preferencias de contacto al generar y distribuir contenido”, dijo Forrester.
Las operaciones internas utilizan IA generativa para elevar la inteligencia de su organización.
Esto introduce amenazas a la manipulación de datos, la integridad de los mismos y en la experiencia de los empleados.
Forrester señala que el mayor riesgo en este caso de uso es que los datos utilizados para la toma de decisiones puedan ser manipulados.
Ello conllevaría, según destacó el informe, a conclusiones e implementaciones inexactas.
Fuente: THE STANDARD CIO