Si bien la inteligencia artificial (IA) todavía es nueva y emocionante, no es diferente de cualquier otra tecnología. Si decide implementarla dentro de su organización, asegúrese de conocer los posibles riesgos de exposición.
Somos conscientes de los beneficios de la IA, pero con un 35 % de las empresas que la están adoptando, el foco debe desplazarse hacia cómo prepararse para cuando algo sale mal. Esto incluye comprender cómo se puede explotar la IA para engañar, manipular o dañar a las organizaciones, y herramientas para ayudar a defenderse y mitigar los riesgos.
La IA se utiliza de forma engañosa
Un riesgo importante asociado con la IA es la capacidad de las personas de pretender ser algo que no son. Por ejemplo, la IA puede hacer que los CV (o currículums) se vean fantásticos y que el proceso de elaboración sea mucho más rápido. En un mercado laboral cada vez más competitivo, los graduados utilizan herramientas como OpenAI o ChatGPT para escribir cartas de presentación junto con los CV. Si bien esto ayuda a algunos a avanzar en los procesos de selección, las empresas descubren que cuando se llama a un candidato para una entrevista, hay disparidades entre las calificaciones en el papel y la persona sentada frente al escritorio.
De manera similar, las instituciones financieras a menudo utilizan formularios en línea e inteligencia artificial para determinar si conceden un préstamo o crédito a alguien. Automatizar procesos como este significa que las empresas no siempre se reúnen con las personas cara a cara, lo que las convierte en un objetivo principal para quienes desean explotar el sistema.
En un giro a los ataques de whaling tradicionales (un tipo de ataque de phishing dirigido a altos ejecutivos), hay informes recientes de estafadores que utilizan IA para solicitudes deepfake en nombre del director financiero (CFO).
Estos ejemplos resaltan la necesidad de que las empresas sean cautelosas, implementen procesos de evaluación sólidos y brinden capacitación a las partes interesadas.
Prácticas comerciales poco éticas
La IA puede maximizar las ventajas comerciales a través de estrategias mejoradas de precios dinámicos en línea. El 94 % de los compradores comparan precios de productos mientras compran en línea y los algoritmos monitorean ese comportamiento del usuario para ofrecer precios personalizados según sus hábitos de gasto. Sin embargo, las empresas pueden verse tentadas a aplicar estrategias de precios engañosas, explotando los algoritmos para medir la disposición de los consumidores a pagar en lugar de ofrecer el precio adecuado.
Esta manipulación se extiende más allá de los ajustes de precios. Las empresas podrían emplear algoritmos sofisticados para predecir e influir en el comportamiento de los consumidores, cruzando potencialmente límites éticos al aprovechar las preferencias o vulnerabilidades individuales.
Riesgos internos y de terceros
Las amenazas internas añaden otra capa de complejidad, donde los empleados descontentos con acceso a algoritmos de IA podrían sabotear operaciones o comprometer datos confidenciales. Al introducir intencionalmente datos confidenciales en sistemas de IA generativos, los empleados podrían exponer secretos organizacionales a posibles ataques informáticos, amenazando a las empresas y a los clientes con importantes riesgos de seguridad. A principios de 2023, una empresa global de electrónica prohibió a los empleados usar IA después de que se identificara que un empleado que utilizaba IA para fines laborales había filtrado información interna confidencial.
Muchas empresas dependen de proveedores externos para obtener datos y servicios esenciales. Sin embargo, esta asociación introduce riesgos ya que el tercero puede tener diferentes sesgos y una tolerancia al riesgo que no se alinea con las expectativas o estándares de la empresa. Este desajuste puede generar vulnerabilidades, incluido un desarrollo apresurado que carece de medidas de seguridad y una mayor susceptibilidad a la manipulación.
Defensa contra riesgos
La seguridad se basa en tres principios: confidencialidad, integridad y disponibilidad, y todos los controles que se implementan tienen como objetivo protegerlos. A medida que las técnicas avanzan en la capacidad de atacar esos principios, las defensas también deben volverse más avanzadas. Las empresas pueden mitigar los riesgos mediante:
- Estrategia de defensa integral: Es importante que las empresas examinen y monitoreen los sistemas de IA, evalúen la confiabilidad de la participación de terceros y brinden apoyo contra una amplia gama de amenazas potenciales, incluidas aquellas planteadas por usuarios poco sinceros y algoritmos corruptos.
- Gobernanza responsable y divulgación: Las amenazas a la seguridad cibernética y los peligros morales requieren una gobernanza equilibrada. La ausencia de medidas proactivas podría conducir no sólo a un daño a la reputación sino también a una erosión de la confianza en industrias enteras.
- Prácticas responsables de IA: Desde los desarrolladores hasta las empresas, las prácticas responsables de IA, como un enfoque de diseño centrado en el ser humano, la privacidad y la seguridad de los datos, la transparencia y la responsabilidad, deben arraigarse en cada etapa de la cadena de valor.
- Cumplimiento normativo: Manténgase actualizado con las regulaciones y estándares en evolución relacionados con la IA y la seguridad cibernética, como la norma ISO 27001 o el Instituto Nacional de Estándares y Tecnología (NIST) marco de seguridad cibernética. Garantizar el cumplimiento de la normativa pertinente para evitar riesgos legales y regulatorios.
El poder transformador de la IA es innegable. Sin embargo, su funcionamiento responsable exige un esfuerzo colectivo y un equilibrio entre el avance tecnológico y la responsabilidad ética. Solo mediante una defensa proactiva y sólida y un compromiso de toda la industria con prácticas éticas de IA, las empresas y las sociedades pueden aprovechar todo su potencial y, al mismo tiempo, protegerse contra los riesgos inherentes.
Lea más sobre el impacto de la IA en las organizaciones en Desbloquear la confianza en la IA por Mark Brown, Navegando por la IA generativa y el cumplimiento normativo por Conor Hogan y El impacto de la IA y el ML en la seguridad cibernética por Alessandro Magnosi.
Visite el Rincón de los expertos de BSI para obtener más información de nuestros expertos de la industria. Suscríbase a nuestros boletines informativos Experts Corner-2-Go de LinkedIn para recibir un resumen quincenal del contenido más reciente sobre liderazgo intelectual: confianza digital, Medio ambiente, salud y seguridad, cadena de suministro.