Notas sobre ética y regulación en la IA
Estamos tratando constatemente en este blog de OpenExpo Europe como la inteligencia artificial ha revolucionado diversos campos, desde la medicina hasta las artes, transformando la manera en que interactuamos con la tecnología.
Pero en, prácticamente todos los artículos, tenemos que hacer referencia a que se suscitan debates éticos (más allá de lo puramente técnico) y, mencionamos también, la necesidad de normativas claras. En este artículo exploraremos, a modo de notas, algunos temas éticos y de regulación asociados al desarrollo y uso de la IA. Pasearemos, del mismo modo, someramente por normativas actuales y pasadas, así como ciertas propuestas futuras para su regulación. Terminando con casos destacados de controversias éticas en el uso de la Inteligencia Artificial.
Dilemas éticos en el desarrollo y uso de la IA
1. Discriminación y sesgo:
Uno de los principales problemas éticos de la IA es el llamado “sesgo”, que según los expertos es inherente a los algoritmos y al entrenamiento de los modelos. Estos sesgos pueden reflejar y amplificar desigualdades sociales ya existentes y que deberían tender a su eliminación en las sociedades desarrolladas. Por ejemplo, ya en 2018, un estudio demostró que los sistemas de reconocimiento facial eran menos precisos al identificar personas de piel oscura, especialmente mujeres, comparado con las personas de piel clara. Se nos hace evidente que este tipo de sesgo, aún sirviéndonos sólo de ejemplo, puede tener consecuencias graves en contextos como la vigilancia y la aplicación de la ley.
2. Privacidad y vigilancia:
Y aunque no es novedoso, pues el big data precede a la IA en su forma actual, la capacidad que la IA ha dado para procesar grandes volúmenes de datos plantea serias preocupaciones sobre la privacidad. Desde el mismo punto de cuales son los datos que se toman para entrenar a los modelos, hasta a quien pertenece (privacidad personal o derechos de autor, son controversias muy vivas). Los modelos de IA en el ámbito del marketing, por ejemplo, pueden recolectar y analizar datos personales sin el consentimiento explícito de los usuarios con mucha más facilidad que con los métodos “big data clásicos”, además de hacerlo de manera más “sibilina” para bordear la legalidad, lo que podría representar una clara invasión a la privacidad y derechos tanto de empresas como de ciudadanos y ciudadanas.
3. Autonomía y control:
El uso de IA en la toma de decisiones críticas, como en la medicina o la justicia penal, plantea preguntas sobre la autonomía humana. ¿Hasta qué punto debemos confiar en las decisiones tomadas por sistemas de IA? ¿Quién es responsable cuando un algoritmo comete un error? Un caso notable es el uso de algoritmos para determinar, o simplemente ayudar, en el dictado de sentencias judiciales que ha suscitado debates sobre la equidad y la transparencia del proceso, en los experimentos realizados hasta ahora. Con dudas sobre los mencionados “sesgos”, así como de la propia capacidad del algoritmo.
Normativas actuales y propuestas futuras
Las regulaciones existentes en torno a la IA varían considerablemente entre las diferentes regiones del planeta. En la Unión Europea, el primer dique de contención es el Reglamento General de Protección de Datos (GDPR) que establece las principales directrices sobre el manejo de datos personales, imponiendo fuertes sanciones por incumplimiento. Además, la UE ha desarrollando una Ley de Inteligencia Artificial para regular el uso de la IA, priorizando la transparencia, la seguridad y los derechos fundamentales, al menos sobre el papel, pues no todos los términos de esta ley están bien definidos, según diferentes expertos. Además se suscita la contoversia de que si se regula en demasía se ponen puertas al avance y la investigación. Recientemente Meta ha anunciado la indisponibilidad de su último modelo de IA en Europa por esta razón.
En Estados Unidos, la Administración de Alimentos y Medicamentos (FDA) está trabajando en marcos regulatorios para la IA en dispositivos médicos, centrados en la seguridad y la eficacia. A nivel global, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha publicado principios para la IA que enfatizan la inclusión y la transparencia.
Otro gran inconveniente para la implementación y el cumplimiento de estas normativas es la rápida evolución de estas tecnologías. El tsunami IA que estamos viviendo, hace que los modelos y sus capacidades vayan muy por delante del legislador, que ya de manera habitual venía con retraso a la tecnología. Ese retraso del legislador se está viendo acentuado de una forma exponencial.
Algunos casos destacados de controversias éticas
IA en la justicia :
El uso de algoritmos de predicción en el sistema de justicia penal, como el sistema COMPAS en Estados Unidos, ha sido objeto de críticas debido a sus sesgos raciales. Un estudio realizado por ProPublica, tan pronto como en 2016, reveló que COMPAS era más propenso a etiquetar incorrectamente a los acusados de raza negra como futuros delincuentes en comparación con los acusados de raza blanca. Este hallazgo puso todas las miradas en la ansiada y difícil tarea de garantizar transparencia y supervisión rigurosa en el uso de IA, anunciando otros casos en un hilo que llega a nuestros días.
IA en la contratación de personal:
Empresas como Amazon han experimentado controversias al utilizar IA en sus procesos de contratación. En 2018, se descubrió que el algoritmo de contratación de Amazon tenía un sesgo de género, desfavoreciendo a las mujeres en roles técnicos. En este caso se intervino con rapidez por parte de Amazon haciendo correcciones más justas por personal humano, destacando así la importancia de la supervisión humana en los sistemas de IA utilizados en la toma de decisiones laborales. Una dependencia de la que aún, según muchos expertos, aún no nos hemos liberado.
Reconocimiento facial en espacios públicos:
El uso de tecnología de reconocimiento facial en espacios públicos ha generado un intenso debate sobre la privacidad y los derechos de los ciudadanos. Ya en 2019, San Francisco se convirtió en la primera ciudad en prohibir el uso de reconocimiento facial por parte de las fuerzas de seguridad del estado, citando preocupaciones sobre la vigilancia masiva y la erosión de las libertades civiles.
Es más que evidente y, a nadie escapa, que la ética y la regulación de la inteligencia artificial es un tema capital, máxime en el contexto actual de su rápida adopción y desarrollo. Los dilemas éticos, como la discriminación, la invasión de la privacidad y la autonomía, requieren un enfoque cuidadoso y balanceado, que se nos antoja díficil, además de cambiante, como lo son los propios modelos de IA.
Las normativas actuales y futuras deben dar respuesta a los problemas de la transparencia, la seguridad y la equidad para garantizar que la IA beneficie a la sociedad en su conjunto. Casos (a modo de ejmeplo ) como los sesgos en la justicia penal o la contratación laboral subrayan la importancia de una supervisión adecuada y una regulación efectiva (aunque muy compleja y dificil). Y lo que nos parece más importante: a medida que avanzamos, es crítico que los marcos regulatorios evolucionen junto con la tecnología para asegurar un futuro como sociedad tecnológica más justa y, por ende, a la propia tenología.