Facultad de Derecho

6 de agosto de 2020

Un nuevo riesgo por afrontar en los negocios: la ética en la inteligencia artificial

La creación e implementación de la ética con efectos internos y externos en las empresas, se ha convertido en una necesidad actual para la identificación y mitigación de riesgos en el desarrollo de proyectos basados en IA

Por: Luisa Fernanda Jiménez Mahecha

Las empresas están implementando con mayor interés la inteligencia artificial (“IA”) para optimizar sus procesos productivos. La IA se crea a partir del aprendizaje de las máquinas a través de algoritmos que les permiten reconocer y clasificar la información introducida por los humanos, por lo que la IA se ha conceptuado como cualquier cosa que haga que las máquinas actúen de forma más inteligente[1]/[2].

De esta manera, las compañías no solamente han focalizado sus esfuerzos en obtener los recursos necesarios para poder desarrollar proyectos con IA, sino que también para lograr el adecuado manejo de los problemas éticos asociados a la IA, por ejemplo, el indebido uso de datos, la inclusión de sesgos involuntarios, la creación de falsa información y la pérdida de confianza de los stakeholders, entre otros[3].

Los desarrollos en IA no se encuentran ajenos a la ética como un factor de riesgo para las compañías, en efecto, la ausencia de unos pilares éticos puede afectar no solamente la reputación de las empresas[4], sino que también a todos los miembros que participan de ella, ocasionando incluso significativas responsabilidades legales. Un reciente caso lo podemos evidenciar con la demanda que instauró Thomson Reuters contra ROSS Intelligence Inc, una start-up canadiense que cuenta con un buscador avanzando de jurisprudencia y documentación legal, que presuntamente utiliza de manera indebida las bases de datos de Thomson Reuters para poder alimentar sus productos de inteligencia artificial[5].

Otro caso relevante, fue la reciente suspensión y/o retiro de los proyectos en reconocimiento facial para uso policial adelantados por Amazon, Microsoft & IBM, por la presión social ante el asesinato de George Floyd, en el que los oficiales de policía hicieron uso de esta tecnología[6]/[7]. De esta forma, decidir retirar o suspender un desarrollo tecnológico resulta ser todo un desafío para las compañías y un riesgo que posiblemente puede ser previsible. Particularmente, Amazon decidió suspender por un año Amazon’s facial recognition technology, a la espera de una reglamentación gubernamental que determine el uso ético de la tecnología de reconocimiento facial[8].

La regulación de la Inteligencia Artificial es incipiente, la Comisión Europea ha presentado los primeros avances para la Unión Europea sobre la Inteligencia Artificial y la Robótica[9]. La Casa Blanca ha publicado diez principios que las agencias gubernamentales deben cumplir al proponer nuevas regulaciones de IA para el sector privado[10]. De igual forma, el pasado 28 de febrero de 2020, The Pontifical Academy for Life, Microsoft, IBM, FAO, y el gobierno italiano suscribieron el documento “Call for an AI Ethics” que propende por la regulación de la inteligencia artificial desde un enfoque ético y bajo un sentido de responsabilidad entre organizaciones, gobiernos e instituciones[11].

En Colombia, recientemente radicaron el Proyecto de Ley N°021-2020C ante la Cámara de Representantes, el cual pretende fijar los lineamientos de política pública para el desarrollo, uso e implementación de la IA. En este Proyecto se contempla como obligación legal la creación y el registro del Código de Ética para todos aquellos responsables en el uso, desarrollo e implementación de la IA.

Sin embargo, lo anterior no es obstáculo para que las compañías implementen en la actualidad un marco ético robusto para los gerentes y para todos aquellos que participan de manera directa e indirecta, al establecer unos principios éticos que le permitan a la compañía no solamente prever, sino que también mitigar los riesgos relativos a la IA.  Como lo señalan Thomas H. Davenport y Vivek Katyal en  Every leader’s guide to the ethics of AI, hasta que las regulaciones en IA  se empiecen a crear e implementar, las empresas orientadas a la IA deben establecer sus propios marcos éticos[12].

Future of Life Institute en la conferencia Asilomar de 2017, estableció una guía de principios y valores y principales problemas relacionados con la IA[13]. En igual medida, el “Call for an AI Ethics” establece los siguientes 6 principios: transparencia, inclusión, responsabilidad, imparcialidad, confiabilidad, seguridad y privacidad. Las compañías deben diseñar su propio marco de principios, establecer buenas prácticas de conducta y definir las estrategias legales que se adecuen a sus necesidades presentes y futuras.

No se puede desconocer que la IA se ha convertido en uno de los principales vehículos de crecimiento y desarrollo en tiempos de crisis para las Compañías y la sociedad[14]. En esa medida, la ética debe hacerse parte de la IA[15] por lo que todos los miembros que participan en su desarrollo deben involucrarse en la implementación del marco ético propio del proyecto a realizar.

En este caso, cobra relevancia la toma de decisiones con Inteligencia Corporativa Sostenible (ICS), entendiendo la ICS como la capacidad de las empresas de realizar un análisis de riesgos y los efectos de sus decisiones, bajo los principios de ética empresarial y responsabilidad social corporativa. Los principios de la ética empresarial como aquellos estándares de conducta aplicables al interior de las empresas (ética empresarial con efecto interno) y la Responsabilidad Social Corporativa entendida como aquellas acciones dirigidas en beneficio de la sociedad y no exclusivamente en beneficio de las empresas y los accionistas (con efecto externo, en beneficio de la sociedad).

Lo anterior conlleva, a que la toma de decisiones con ICS se convierta en el equilibrio de aplicar la ética con efectos internos y externos para las compañías. Por ejemplo, el desarrollo de IA para resolver casos judiciales puede estar expuesto a que los datos y algoritmos utilizados para el entrenamiento de la inteligencia artificial se realice de manera ambigua o parcializada, por lo que se requiere tomar decisiones que mitiguen este riesgo desde los principios de la transparencia, responsabilidad, imparcialidad y confiabilidad. Otro riesgo, pero con efectos externos, puede ocurrir por el uso inadecuado por parte de terceros (jueces), por lo que se pueden adoptar medidas que mitiguen este riesgo bajo los principios de responsabilidad, transparencia, seguridad y privacidad.

De esta manera, la creación e implementación de la ética con efectos internos y externos en las empresas, se ha convertido en una necesidad actual para la identificación y mitigación de riesgos en el desarrollo de proyectos basados en IA. Por esa razón, los gobiernos, la academia, y las mismas compañías dedicadas a la IA, han empezado a desarrollar investigaciones acerca de cómo se deben construir esos marcos éticos y cómo se puede garantizar su cumplimiento[16]/[17].

 

 

 

 

* Abogada egresada de la Especialización en Derecho de los Negocios de la Universidad Externado de Colombia. Miembro de la Red Juvenil de Arbitraje. Abogada Asociada de Godoy & Hoyos Abogados.

 

 

 

 

 

[1] IBM. Course Artificial Intelligence Concepts (2020).

[2] DW Documental. ¿De qué es capaz la inteligencia artificial? https://www.youtube.com/watch?v=34Kz-PP_X7c [Consultado el 17 de enero de 2020]

[3] Deloitte. Thriving in the era of pervasive AI. Disponible en: https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-automation-in-business-survey.html [Consultado el 17 de julio de 2020] Deloitte. AI ethics: A business imperative for boards and C-suites. Disponible en: https://www2.deloitte.com/us/en/pages/regulatory/articles/ai-ethics-responsible-ai-governance.html#top [Consultado el 17 de julio de 2020]

[4] PWC. Sizing the prize What’s the real value of AI for your business and how can you capitalise?. Disponible en: https://www.pwc.com/gx/en/issues/analytics/assets/pwc-ai-analysis-sizing-the-prize-report.pdf [Consultado el 17 de julio de 2020]

[5] Véase LawSitesBlog. ROSS Comes Out Swinging, Vows To Fight Thomson Reuters’ Lawsuit Alleging Data Theft. Disponible en: https://www.lawsitesblog.com/2020/05/ross-comes-out-swinging-vows-to-fight-thomson-reuters-lawsuit-alleging-data-theft.html and https://www.lawsitesblog.com/2020/05/thomson-reuters-sues-ross-intelligence-claiming-theft-of-proprietary-data.html Artificial Lawyer. ROSS Fires Back At Thomson Reuters Over Data Case. Disponible en: https://www.artificiallawyer.com/2020/05/07/ross-fires-back-at-thomson-reuters-over-data-case/ [Consultado el 13 de julio de 2020]

[6] Forbes. Amazon, Microsoft & IBM Slightly Social Distancing From The $8 Billion Facial Recognition Market. Disponible en:  https://www.forbes.com/sites/korihale/2020/06/15/amazon-microsoft–ibm-slightly-social-distancing-from-the-8-billion-facial-recognition-market/#17b7ef4d4a9a [Consultado el 5 de julio de 2020]

[7] MIT Technology Review. Predictive policing algorithms are racist. They need to be dismantled. Disponible en: https://technologyreview.us11.list-manage.com/track/click?u=47c1a9cec9749a8f8cbc83e78&id=3acc292cb4&e=dfab94cec0 [Consultado el 5 de julio de 2020]

[8] Amazon. We are implementing a one-year moratorium on police use of Rekognition Disponible en:https://blog.aboutamazon.com/policy/we-are-implementing-a-one-year-moratorium-on-police-use-of-rekognition [Consultado el 5 de julio de 2020]

[9] European Comission. Policies: Artificial Intelligence. https://ec.europa.eu/digital-single-market/en/artificial-intelligence

[10] MIT Technology Review. The US just released 10 principles that it hopes will make AI safer. https://www.technologyreview.com/2020/01/07/130997/ai-regulatory-principles-us-white-house-american-ai-initiatve/ [Consultado el 20 de julio de 2020]

[11] https://romecall.org/ [Consultado el 6 de julio de 2020]

[12] Véase también Infosys Consulting. The Ethics of AI: how business can take a leadership role. Disponible en: https://www.infosysconsultinginsights.com/2018/05/18/the-ethics-of-ai-how-business-can-take-a-leadership-role/ [Consultado el 6 de julio de 2020]

[13] Future of Life Institute. https://futureoflife.org/ai-principles/?cn-reloaded=1

[14] MIT Technology Review. If AI is going to help us in a crisis, we need a new kind of ethics. https://www.technologyreview.com/2020/06/24/1004432/ai-help-crisis-new-kind-ethics-machine-learning-pandemic/?truid=ebd273c8b1fb61873e310f7cc5b15b3b&utm_source=the_download&utm_medium=email&utm_campaign=the_download.unpaid.engagement&utm_term=non-subs&utm_content=07-21-2020

[15] Inhiben

[16] https://ethicalby.design/

[17] European Comission. Policies: Artificial Intelligence. https://ec.europa.eu/digital-single-market/en/artificial-intelligence

Artículos Recientes