TECNOLOGÍA. ESTOS SISTEMAS SON CAPACES HASTA DE ESCRIBIR POESÍA Y PRODUCIR MÚSICAAlgoritmos racistas y extremistas: ¿se necesita enseñarles ética a los robots?

0 106

Análisis de casos en los cuales diferentes formas de inteligencia artificial se equivocaron, discriminaron y hasta hicieron apología del nazismo.

La inteligencia artificial está conformada por algoritmos, fórmulas o instrucciones que procesan datos para llegar a una conclusión. Es la esencia de la computación.
Estos algoritmos nutren sistemas informáticos desde años, pero en el último tiempo fueron expandiendo su influencia y su capacidad gracias al machine learning que, tal como implica su nombre, se refiere a la posibilidad de aprender que tienen estos sistemas.
Los robots, algoritmos o inteligencia artificial permiten darle sentido a enormes caudales de datos (big data) y también optimizar procesos. Están presentes en el ámbito de la salud, la economía y la seguridad. Entran en acción cada vez que buscamos información en la web o cuando recibimos sugerencias personalizadas. Estos sistemas son capaces hasta de escribir poesía y producir música.
Si los algoritmos tienen tanto protagonismo y rigen cada aspecto de nuestras vidas, no deberíamos preguntarnos, cuanto menos, ¿cómo funcionan esas fórmulas?, ¿qué tipo de datos son seleccionados para crearlas?, ¿los algoritmos son justos o simplemente refuerzan patrones o estigmas?
Algunos creen que sí, que es hora de hacerse ésas y otras preguntas para entender el impacto que los algoritmos tienen en la vida diaria, con el fin de mejorarlos, de darles una dimensión ética. Si rigen cuestiones humanas deberían ser más humanos. Al menos esa es la visión de algunos.

Los algoritmos también se equivocan

La inteligencia artificial puede fallar. Basta con que haya algún error de programación para que surja una conclusión errónea o para convertir al software, la estructura o plataforma en algo fácilmente vulnerable. Ocurrió con el software de voto electrónico durante las elecciones para Jefe de Gobierno porteño en 2015. Y sucede con frecuencia que expertos en informática encuentren fallas o vulnerabilidades en routers y sistemas operativos que controlan millones y millones de datos.
Hace apenas unos días se supo que, por una falla en el sistema, Facebook desbloqueó temporalmente a personas en la red social y en su servicio de mensajería. Esto afectó a 800 mil usuarios. No es el primero de su tipo. Tampoco es la única plataforma con errores de sistemas. Los errores ocurren con frecuencia en el mundo virtual.
Aún cuando los robots estén “bien programados” pueden tomar decisiones poco convenientes. Fue el caso de la gran caída bursátil de la primera semana de febrero que, según varios especialistas, pudo haber estado propiciada por estos robots financieros que comenzaron a mandar órdenes de venta masiva que generó una caída de los valores. ¿Se equivocaron? No, simplemente ejecutaron las acciones para los cuales estaban programados. Las máquinas interpretaron que la mejora en el empleo ocasionaría más consumo y por ende mayor inflación, y actuaron en consecuencia. Estaban programados para vender en caso de que llegara un “dato de riesgo”.

Qué tipo de datos nutren esos sistemas

Si los algoritmos están regidos por datos entonces cabe preguntarse qué tipo de datos son los que nutren a esos sistemas. Y también qué criterio de selección y uso se le dará a esos datos. Hay decenas de casos donde se vio que los algoritmos pueden tener visiones extremistas, sesgada y racistas.
Google fue duramente criticado cuando, en 2015, se difundió que su sistema de reconocimiento de imágenes confundía fotos de gorilas con personas. El tema enseguida se difundió en Twitter: “Mi amigo no es un gorila”, escribió el usuario y adjuntó una captura de pantalla que dejaba en evidencia el problema. La compañía salió a pedir disculpas y prometió solucionar el error del algoritmo. (Fuente: Infobae)

También podría gustarte

Deja una respuesta

Su dirección de correo electrónico no será publicada.