La rápida adopción de la Inteligencia Artificial (IA) está transformando numerosos sectores y cambiando la forma en que interactuamos con la tecnología. Aunque la IA promete grandes avances y beneficios, también conlleva una serie de riesgos que debemos abordar adecuadamente para gestionarla con eficacia.
Valorar algunos de sus riesgos y discutir sobre como abordarlos, supone un ejercicio necesario para garantizar correcta implementación de estas tecnologías.
Uno de los riesgos a los que nos enfrentamos es el: Impacto en el comportamiento humano. La utilización de asistentes virtuales, capaces de interactuar con sus usuarios pueden llevar a que algunas personas, adopten comportamientos de mecánicos carentes de sociabilidad humana. Característica fundamental de la naturaleza humana que tiene un papel crucial en la formación de relaciones, el desarrollo personal y social, y la construcción de comunidades.
Las Inteligencias artificiales no funcionan como un cerebro humano, no replican la complejidad y la forma en que opera la mente humana. Su funcionamiento está basado en complejos procesos algorítmicos y modelos matemáticos que permite procesar inmensas cantidades de información, con ello, realizan tareas concretas más o menos eficientes.
Los sistemas de IA más avanzados utilizan modelos de Machine Learning (técnicas de aprendizaje automático), y el procesamiento del lenguaje natural, no obstante, sus predicciones y decisiones se basan en el procesamiento de datos matemáticos, a diferencia del cerebro humano, que tiene una capacidad innata para aprender y adaptarse a nuevas situaciones.
La Inteligencia artificial carece de la comprensión, la intuición y la conciencia que caracterizan al cerebro humano, pueden incorporar sesgos y carencia de neutralidad en sus dinámicas funcionales.
Sesgos más frecuentes:
- Sesgo de datos: Datos de entrenamiento que utilizados para desarrollar los modelos de IA no son representativos de la comunidad o contienen desequilibrios en términos de género, raza, edad u otras características. Como resultado, el modelo puede mostrar discriminación o sesgos no deseados hacia ciertos grupos.
- Ejemplo del anterior: El sistema de inteligencia artificial que usan los jueces en EE. UU como asesor tiene un sesgo y tiende a desaconsejar la libertad a los ciudadanos negros más a menudo que a los blancos (el algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10). Esto es especialmente grave cuando los jueces delegan en la IA sin cuestionar sus recomendaciones
- Sesgo de sesgo: Inherente en los datos de entrenamiento respuesta de la influencia de opiniones o prejuicios, por ello, si los datos de entrenamiento reflejan prejuicios presentes en la sociedad, lo más probable es que el modelo de IA también los reproduzca en sus decisiones y recomendaciones.
- Sesgo de correlación: Presente cuando el modelo de IA asocia características o variables irrelevantes con ciertos resultados, lo que puede llevar a decisiones erróneas.
- Un ejemplo de lo anterior: Si un modelo de contratación asocia la experiencia laboral pasada con el rendimiento futuro, puede discriminar involuntariamente a candidatos que provienen de grupos subrepresentados.
- Sesgo de representación: Surge cuando los datos de entrenamiento no contemplan la diversidad de escenarios posibles, ello deriva a imprecisiones o generalizaciones en sus predicciones o recomendaciones.
- Estos ejemplos ilustran algunos de los sesgos que pueden surgir al utilizar la IA, por ello, es importante utilizar con precaución estos sistemas, asegurándonos de que los datos son representativos y tienen en cuenta las múltiples variables presentes en los ecosistemas humanos.
Seguridad de la Inteligencia Artificial: Otro de los riesgos de la utilización de la IA (muy presente en la actualidad), es la creación y difusión de noticias falsas. La manipulación de fotografías, videos, encuestas, resultados, etc., se utiliza para orientar opiniones y generar conflictos.
Impacto en el empleo: Según un informe de la OCDE, hasta el 14% de los trabajos en el mundo podrían estar en riesgo de ser reemplazados por la automatización y la IA.
La Inteligencia Artificial ofrece grandes oportunidades, pero ha de ser gestionada de manera ética y eficazmente. Es importante abordar sus riesgos y su impacto en la naturaleza humana.
Es un desafío importante, pero, a medida que avanzamos en la adopción y desarrollo de esta tecnología, debemos formular procesos de compatibilización con enfoques éticos, ser protagonista la participación del ser humano, la transparencia, no descuidando la educación y el diseño centrado en el servicio de los valores y necesidades humanas.
Cuidaros!!
Bibliografía:
- Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
- Floridi, L. (2019). Soft ethics and the governance of the digital. Philosophy & Technology, 32(2), 185-187.
- Hueso, L. C. (2019). Riesgos e impactos del Big Data, la inteligencia artificial y la robótica: enfoques, modelos y principios de la respuesta del derecho. Revista general de Derecho administrativo, (50), 1-37.
- Jiménez, F. J. M. (2023). Inteligencia artificial y ética: hacia una aplicación de los principios éticos en el ámbito de la UE. Cuadernos Europeos de Deusto, (68), 89-115.
- Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
- Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.
- Ramírez Mateo, C. A., & Alcívar Pineda, J. J. (2023). Riesgo en el uso de modelos de Inteligencia Artificial. Análisis basado en modelo causales (Bachelor’s thesis).
- Russell, S., & Norvig, P. (2016). Artificial Intelligence: A Modern Approach. Pearson.
- Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752.
Deja una respuesta