Santa Sede

Los principios de la ética en la era de la Inteligencia Artificial

El pasado viernes, el Papa Francisco hablaba de la necesidad de una «algorética», en el marco del final de una reunión de la Pontificia Academia para la Vida. De este trabajo ha salido un documento, el Rome call for AI Ethics (El manifiesto de Roma por una ética de la Inteligencia Artificial), firmado por instituciones de gran calado internacional: la propia Santa Sede; la FAO (Organizacioón Mundial contra el Hambre), un organismo de la ONU; y las empresas IBM y Microsoft. Cierto es que faltan importantes actores internacionales, pero eso no quita la importancia de este manifiesto internacional a favor de una ética que ponga humanidad en las nuevas tecnologías.

El documento, en inglés, tiene una extensión de seis páginas. Al final del mismo se enumeran cuáles son los principios que debería tener la ética aplicada a la inteligencia artificial, los algoritmos y las nuevas tecnologías. Son los siguientes.

1. Transparencia

En principio, todos los sistemas deben ser explicables. Esto mismo denunciaba el Papa en el discurso del 28 de febrero cuando decía que el hecho de desconocer cuál es el funcionamiento de los algoritmos pone el control de los datos y del conocimiento en manos de unos pocos, anulando la libertad.

2. Inclusión

La transparencia en los algoritmos garantizaría una mayor libertad y menor  manipulación
Las necesidades de todas las personas deben tenerse en cuenta para que todos puedan beneficiarse y todos los individuos puedan disponer de las mejores condiciones posibles para expresarse y desarrollarse. La brecha digital es, a menudo, uno de los grandes problemas del avance tecnológico, pues hace aumentar las desigualdades existentes. De ahí la necesidad de que el acceso sea equitativo para todas las personas.

3. Responsabilidad

Aquellos que diseñan y usan la inteligencia artificial deben proceder con transparencia y responsabilidad. Una vez más, se insiste en la necesidad de ser transparentes en el diseño y uso de la inteligencia artificial, una de las grande tareas pendientes a día de hoy.

4. Imparcialidad

No crear o actuar según los prejuicios, de manera que se salvaguarde la dignidad humana. La inteligencia artificial, a día de hoy, no es ni mucho menos tan inteligente y actúa solo según los datos que se le proporcionan a modo de ‘entrenamiento’. Se ha demostrado repetidas veces que eso ha causado estereotipos poco científicos. Este peligro es algo que ya ha sucedido y que, cada vez más, existe el peligro de que pase.  Por ahí van, por ejemplo, las multas de posición dominante que la Unión Europea ha impuesto en los últimos veinte años a Microsoft y Google.

5. Fiabilidad

Todos los sistemas de inteligencia artificial deben funcionar con fiabilidad. En el avance tecnológico, a veces se sacan productos que no han pasado todos los controles o a los que les falta desarrollo, causando inestabilidades imprevistas. Es necesario no fallar por correr más de lo necesario, a veces la prudencia es la mejor consejera.

6. Seguridad y privacidad

Los sistemas de inteligencia artificial deben funcionar con seguridad y preservar la intimidad de sus usuarios. Este es un punto a mejorar mucho. Microsoft, por ejemplo, ha sido muy cuestionada a la hora de preservar la privacidad de los usuarios de sus sistemas operativos Windows, especialmente en el lanzamiento de Vista y con algunas funcionalidades de Windows 10 como Cortana. La empresa que más problemas ha tenido a nivel mundial en los últimos años ha sido Google, que ahora está siendo investigada en Estados Unidos por recoger datos que supuestamente no recoge en su plataforma educativa.

¿Cabe esperar que más organismos se sumen a esta iniciativa?

Seguramente. Lo que es cierto es que la necesidad de regulación de la tecnología y los algoritmos se pone cada vez más por encima de la mesa, ya que afectan a nuestro día a día sin saberlos. Por ejemplo, el algoritmo que utiliza Google para ordenar sus búsquedas es desconocido, o el que utiliza Facebook para mostrar unas publicaciones u otras. Lo mismo pasa con Twitter. Todos ellos prometen mostrar «contenido interesante» y, si bien lo cumplen, dejan fuera mucho contenido creando lo que los expertos llaman «cámaras de eco» sin diversidad ideológica o de pensamiento.

El intento de este manifiesto por la ética aplicada a la inteligencia artificial es que esta pueda ser una «herramienta para el bien de la humanidad y del planeta», por lo que para ello se considera indispensable «poner sobre la mesa el tema de la protección de los Derechos Humanos en la era digital en el corazón del debate público», tal y como reza el Rome call for AI ethics.

Aquí puedes consultar, en inglés, el documento completo Rome call for AI ethics.

Print Friendly, PDF & Email