Seguir voluntariamente las directrices éticas sobre IA ayuda a generar confianza en los clientes. Es fundamental implementar controles de seguridad, supervisión humana y transparencia, al igual que el cumplimiento normativo. Las claves para lograrlo son las pruebas continuas, la autenticación y las medidas de seguridad mejoradas, junto con un enfoque abierto y transparente.
Las directrices éticas voluntarias sobre el uso de la IA son importantes por muchas razones, una de las cuales es generar confianza en los clientes. Una encuesta de KPMG reveló que el 63 % de los encuestados en EE. UU. están preocupados por la capacidad de GenAI para comprometer su privacidad y exponer sus datos a violaciones y usos indebidos.
El uso de controles de seguridad, el cumplimiento de las directrices éticas y la supervisión humana de la actividad de los chatbots pueden ayudar a generar confianza entre los clientes. Pero también es importante ser transparente sobre cómo se utiliza la IA y cómo se recopilan, utilizan, almacenan y comparten los datos de los clientes.
Garantizar el cumplimiento
La Ley de Inteligencia Artificial de la Unión Europea proporciona un marco para el desarrollo y la implementación de sistemas de IA en la UE. Aunque todavía no existe una legislación nacional sobre IA en los Estados Unidos, una orden ejecutiva sobre IA es un anticipo de lo que está por venir.
Pero también existen normativas de privacidad relacionadas con la IA. En Europa, el Reglamento General de Protección de Datos (RGPD) de la UE exige a las empresas que adopten medidas para desidentificar y cifrar los datos personales. En Estados Unidos, la Ley de Privacidad del Consumidor de California (CCPA) establece normas estrictas en materia de recopilación y tratamiento de datos.
También existen leyes de privacidad relacionadas con la industria, como la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) para los datos sanitarios y la Ley Gramm-Leach-Bliley (GLBA) para los datos financieros. Las infracciones pueden dar lugar a multas cuantiosas y daños a la reputación.
En otras palabras, incorporar la IA a su centro de llamadas puede ser más complejo que simplemente añadir un sistema de respuesta de voz interactiva (IVR), que se basa en un número limitado de respuestas preestablecidas a las consultas de los clientes. Los sistemas de IA «aprenden» continuamente a partir de conjuntos de datos, por lo que la seguridad es fundamental no solo antes, sino también durante e incluso después de su implementación.
Consejos para mantener segura tu IA
Pruebas continuas: Las pruebas deben realizarse a lo largo de todo el proceso de desarrollo para detectar problemas antes de que se conviertan en un problema. Pero las pruebas no terminan cuando se implementa la solución de IA. Es recomendable realizar pruebas y supervisar el entorno de forma proactiva, ya que la tecnología está en constante evolución y los ciberdelincuentes también están evolucionando sus métodos.
Autenticación: los chats pueden protegerse aún más con la autenticación, un método probado y comprobado que requiere que el usuario confirme su identidad mediante diversas medidas de verificación, como el envío de un código de acceso único a través de un mensaje de texto. Existen diferentes formas de autenticación, entre ellas la autenticación de dos factores, la autenticación multifactorial y los tiempos de espera.
Otros controles de seguridad: Para adoptar un enfoque de «defensa en profundidad», implemente medidas de seguridad contra malware y redes, así como herramientas específicas como un firewall de aplicaciones web (WAF) que bloquee las direcciones maliciosas.
En resumen:
- Las directrices éticas sobre IA generan confianza en los clientes; el 63 % de los encuestados estadounidenses están preocupados por los riesgos de privacidad de la GenAI.
- Es esencial utilizar controles de seguridad y supervisión humana, y ser transparente en cuanto a las prácticas de datos.
- El cumplimiento de normativas como el RGPD, la CCPA, la HIPAA y la GLBA es fundamental para una gestión responsable de los datos.
- Las pruebas continuas, la autenticación y las medidas de seguridad (por ejemplo, WAF) son fundamentales para mantener la seguridad de la IA.
Artículos relacionados




