Noticias Recursos Humanos

¿Es necesario incorporar la ética en la Inteligencia Artificial?

¿Es necesario incorporar la ética en la Inteligencia Artificial?

El uso ético de la inteligencia artificial (IA) resulta fundamental para ganar la confianza de los consumidores, según refleja un nuevo estudio del Instituto de Investigación de Capgemini. Los consumidores, empleados y la ciudadanía en general vigilan de cerca el avance de las empresas para aprovechar el potencial dela IAy se muestran dispuestos a premiar o castigar sus comportamientos. Losencuestados señalan que serían más fieles, comprarían más y serían defensores de la marca si perciben que sus interacciones mediante funciones de IA con las empresas son éticas. 

Para la realización del estudio, bajo el título Whyaddressingethicalquestions in AI willbenefitorganizations,se consultó a 1.580 directivos de grandes empresas en diez países y a más de 4.400 consumidores en seis países. Estas son las principales conclusiones: 

Las empresas que utilicen la IA de forma ética se veránrecompensadas por una respuesta más favorable de los consumidores:El 62% de los consumidores confiaría más en una empresa que hace un uso ético de la IA para interactuar con ellos; el 61% compartiríalas experiencias positivascon la compañía entre familiares y amigos; el 59% sería más fiel a la empresa; y el 55% compraría más productos, y daría mejores calificaciones y opiniones positivas en las redes sociales. Por el contrario, si las interacciones de los consumidores con la IA suscitan inquietudes éticas, se pone en riesgo tanto la reputación como los resultados de negocio de la empresa: el 41%de los individuos señala que presentaría una reclamación, el 36% exigiría una explicación y el 34% dejaría de relacionarse con la empresa. 

Las empresas han experimentado problemas éticos relacionados con sistemas de IA: Directivos de nueve de cada diez empresastienenconstancia de casos de uso ético cuestionable de la IA en los 2 o 3 últimos años; por ejemplo, en referencia a la recopilación de datos personales de pacientes sin consentimiento, en el sector sanitario,o la dependencia excesiva de decisionestomadas de forma automatizaday sin comunicarlo al cliente, en banca y seguros. Entre los motivos que originan estas situaciones, los directivos apuntan la presión por implantar con urgencia la IA, la falta de consideración de la ética durante el desarrolloy diseño de los sistemas de IA,o la falta de recursos destinados a sistemas éticos de IA específicos (equipo, presupuesto, tecnología…). 

A los consumidores, empleados y ciudadanos les preocupa la cuestión ética de la IA y desean alguna forma de regulación: Cerca de la mitad de los encuestados (47%)considera que en los últimos 2 o 3 añosse ha visto expuesto a dos o más casosde uso éticamente cuestionable de IA. La mayor parte (75%)quiere más transparencia cuando un servicio que utilice o contrate se apoye en IA y saber si la IA letrata de forma justa (73%). Más de las tres cuartas partes (76%) de los consumidores consideraque debería haber más regulación sobre el uso de la IA porparte de las empresas. 

Las empresas comienzan a darse cuenta de la importancia del uso ético de la IA: el 51% de los directivos considera que es importante garantizar que los sistemas sean éticos y transparentes. Además, las empresas están tomando medidas cuando detectan usos cuestionables de IA. Según el informe, un 41% de altos ejecutivos afirma haberabandonadoo retirado una solución de inteligencia artificial cuando se han planteado inquietudes éticas. 

“Numerosas organizaciones se encuentran en una encrucijada en su uso de la IA. Consumidores, empleados y ciudadanos están cada vez más dispuestos a interactuar con la tecnología, pero son conscientes de las posibles consecuencias éticas. Este estudio nos muestra que las organizaciones deben establecerprácticas y sistemas éticos para el uso de la IA para conseguir la confianza del público. No se trata solo de cumplir la normativa, también puede generar un beneficio significativo en términos de fidelidad, generación de buenas opiniones e implicación y creación de vínculos”,comentadaAnne-LaureThieullent, responsable de IA y Analítica de Capgemini. “Para conseguirlo, las empresas deben dedicar esfuerzos al establecimiento de estructuras de gobierno adecuadas; no solo deben elaborar un código de conducta basado en sus propios valores, sino, además, incorporar principios éticos en la fase de desarrollo(ethics-by-desing) y, sobre todo, informar al público sobre cómo interactúa con la IA y capacitarle para expresar su postura al respecto”.

Las organizaciones deben priorizar una estrategia de ética en sus sistemas de IA: Para hacerfrente a la inquietud que esta tecnología suscita entre los consumidores y obtener los beneficios en términos de confianza que genera hacer un uso ético de ella, las empresas tienen que focalizarse en que todos sus sistemas o procesos viren a este cometido. En su investigación, Capgeminirecomienda una aproximación triple para construir una estrategia de ética en IA que abrace a todos los niveles: 

1)    De cara a la alta dirección y a aquellas personas con responsabilidad en asuntos éticos: Establecer fundamentossólidos a través de una estrategiaespecífica yun código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas ygarantizar la asunción de responsabilidades; y construir equipos diversos queinculquen y aseguren la sensibilidadhaciael amplio espectro de cuestiones éticas. 

2)    De cara a los departamentos con relación directa con clientes y empleados (como recursos humanos, marketing y servicio al cliente): Asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza. 

3)    De cara a los responsables de TI, AI y analítica de datos y sus equipos: Buscar la manera deque los sistemas de AI sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer unagestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA. 

Por su parte, Luciano Floridi, director de Digital EthicsLabs, del Oxford Internet Institute, explica:“La forma básica de ganar confianza, especialmente en las interacciones con la IA, puede resumirse en tres palabras: transparencia, responsabilidad y capacitación. Transparencia, para que las personas puedan ver qué haces; responsabilidad, porque asumes la responsabilidad de lo que haces; y capacitación, porque proporcionas las herramientas para que el consumidor o el empleado comunique que lo que haces no es correcto o adecuado[empoderamiento]”.

*Si te ha resultado interesante este artículo, te animamos a seguirnos en TWITTER
y a suscribirte a nuestra NEWSLETTER DIARIA.

RRHHDigital

All copyrights for this article are reserved to Portada

Salir de la versión móvil