Telefónica fue una de las primeras compañías del mundo en tener unas pautas éticas de Inteligencia Artificial (IA) para garantizar un impacto positivo en la sociedad. Con los Principios de Inteligencia Artificial (pdf, 92KB) nos comprometemos a diseñar, desarrollar y utilizar la IA con integridad y transparencia, garantizando el respeto de los Derechos Humanos en cualquier entorno y proceso en el que se use esta tecnología.
En los últimos años, hemos sido testigos del avance vertiginoso de nuevas tecnologías como el Big Data y la Inteligencia Artificial y creemos que estas generarán una transformación profunda en los negocios, gobiernos y en la sociedad. Como parte de nuestro compromiso, hemos insistido en que el desarrollo de productos y servicios tecnológicos estén encaminados hacia la construcción de un mundo mejor; de ahí que nuestra misión sea hacer nuestro mundo más humano, conectando la vida de las personas".
La Inteligencia Artificial (IA) y el Big Data están en auge. Pueden aplicarse a ámbitos tan diversos como las recomendaciones de contenido, los chatbots, el reconocimiento de imágenes, la traducción automática, la detección de fraudes, los diagnósticos médicos, los vehículos autónomos, el ámbito jurídico, la educación, el transporte y la logística, por nombrar solo algunos. No solo se utilizan en los negocios, sino también para fines sociales como un mejor entendimiento y reducción de los efectos del cambio climático, los desastres naturales, las pandemias y la migración.
Sin embargo, recientemente se ha expresado una preocupación por el uso de la IA, en particular en relación con la posible discriminación, la falta de interpretabilidad de las conclusiones algorítmicas y la falta de transparencia de los datos personales utilizados. Para hacer frente a esos posibles problemas, Telefónica publicó sus Principios de IA en octubre de 2018 y, desde entonces, ha trabajado en su implementación a través del siguiente enfoque:
Modelo estratégico
Telefónica tiene un compromiso firme con los Derechos Humanos, tal y como se indica en los Principios de Negocio Responsable y la Política de Derechos Humanos. La tecnología debe contribuir a crear una sociedad más inclusiva y ofrecer mejores oportunidades para todos, y la IA puede contribuir a estos objetivos. Con el fin de guiar a la empresa en su aplicación de la IA y el Big Data en todas las líneas de negocio, el Comité Ejecutivo adoptó nuestros Principios de IA en octubre de 2018. A través de estos principios, nos comprometemos a diseñar, desarrollar y usar la Inteligencia Artificial, 1) de forma justa y no discriminatoria, 2) de manera transparente y explicable, 3) con las personas como prioridad, 4) con privacidad y seguridad desde el diseño y 5) con proveedores y socios que se comprometan con estas u otras normas éticas similares en materia de Inteligencia Artificial.
Modelo organizativo
Estamos implementando una IA responsable, a través de un modelo organizativo y de relación que define qué departamentos de la empresa se ven involucrados, cuáles son sus funciones y cómo se relacionan entre sí para alcanzar un uso responsable de la IA.
Promovemos un enfoque de auto-responsabilidad con un modelo de escalación a demanda.
Los jefes/desarrolladores de producto que compran, desarrollan o utilizan IA deben realizar una autoevaluación desde el diseño del producto/servicio que están desarrollando mediante un cuestionario online. Esta autoevaluación trata explícitamente los posibles riesgos que puede haber para los Derechos Humanos relacionados con el uso de la inteligencia artificial. Esta autoevaluación se integra en un modelo de gobernanza de tres niveles apoyado por una comunidad de expertos más amplia. Si un jefe/desarrollador de producto (nivel 1) tiene dudas sobre un posible impacto adverso de un determinado producto o servicio una vez completada la autoevaluación, planteará estas dudas automáticamente a un grupo de expertos multidisciplinar de la compañía (nivel 2), que junto con el jefe/desarrollador de producto intentarán resolver el problema. En caso de que sea un riesgo potencial para los Derechos Humanos y/o la reputación de la empresa, el asunto se elevará a la Oficina de Negocio Responsable, que reúne a todos los directores de departamentos relevantes a nivel global (nivel 3).
Modelo operativo
El modelo operativo describe los procedimientos para implementar el enfoque de IA responsable en el día a día de la empresa. Integrada dentro de una visión más amplia de la responsabilidad por diseño, incluye una metodología llamada «IA responsable desde el diseño» inspirada en metodologías ya existentes en privacidad y la seguridad desde el diseño. El modelo operativo consiste, entre otras cosas, en:
Si quieres conocer más, puedes acceder aquí: https://www.telefonica.com/es/web/negocio-responsable/nuestros-compromisos/principios-ia
Aparte del esfuerzo que está haciendo Telefónica internamente para conseguir un uso responsable de la inteligencia artificial, y consciente de su responsabilidad, Telefónica está colaborando en varias iniciativas para compartir su experiencia y fomentar el uso responsable de la IA en general. A tal efecto, Telefónica colabora con: