David Dao, candidato a doctorado en ETH Zurich, lleva varios sombreros. Además de trabajar en su doctorado, es el fundador de Gain Forest Now (un fondo descentralizado que utiliza inteligencia artificial para medir y recompensar la gestión sostenible de la naturaleza), y también es propietario de una página de GitHub bastante interesante en su página, rastrea algunos de los usos más preocupantes de la IA (inteligencia artificial).
Si bien Dao parece ocupado con sus otras empresas y no ha actualizado su página en unos meses, sigue siendo una colección muy interesante. Seguimos escuchando sobre los logros y el potencial de la inteligencia artificial, pero también hay muchos riesgos y amenazas que vienen con la IA. No es la revolución de los robots ni nada de lo que estamos hablando en un futuro lejano, estamos hablando de problemas reales que suceden ahora.
He aquí un ejemplo: un gaydar. Así es, hay una IA que dice tener más del 90% de precisión para identificar si alguien es gay con solo mirar cinco fotos de sus rostros mucho mejor que la precisión humana.
Si bien esto plantea algunas preguntas interesantes sobre la naturaleza de la homosexualidad, plantea aún más preocupaciones sobre el potencial de discriminación. Si este tipo de IA se generaliza, sería como tener una insignia de homosexualidad en el pecho, algo que los regímenes autoritarios y los grupos discriminatorios estarían obligados a usar.
Algunas características faciales clave a las que apunta la IA. Crédito: Universidad de Stanford.
Dao también documentó varias IA de empleo que estaban destinadas a analizar CV y solicitudes y encontrar a los mejores empleados potenciales, pero terminaron discriminando a las mujeres. Amazon usó este tipo de IA y lo desechó después de encontrar un sesgo sistemático contra las mujeres.
En el caso de Amazon, el algoritmo aprendió rápidamente a preferir a los candidatos masculinos sobre los femeninos, penalizando los CV que incluían la palabra mujer, como capitana del club de ajedrez femenino. Según los informes, también degradó a los graduados de dos universidades para mujeres, se lee en la página de Daos. Otras IA de empleo como HireVue o PredictiveHire también terminaron haciendo lo mismo.
El potencial de discriminación abunda. Entre otros, Dao menciona un proyecto que intenta evaluar si eres un criminal mirándote a la cara, un algoritmo utilizado en el Reino Unido para predecir basado en datos históricos que terminó sesgado en contra de estudiantes de bajos recursos, y un chatbot que comenzó a lanzar comentarios antisemitas. mensajes después de un día de aprendizaje de Twitter.
Es natural que las IA sean defectuosas o imperfectas al principio. Los problemas surgen cuando los autores no son conscientes de que los datos que alimentan a la IA están sesgados y cuando estos algoritmos se implementan en el mundo real con problemas subyacentes.
Estos prejuicios a menudo tienen una carga racial. Por ejemplo, un programa de reconocimiento de imágenes de Google etiquetó a varias personas negras como gorilas. Mientras tanto, Amazons Rekognition etiquetó a las mujeres de piel más oscura como hombres el 31 % de las veces, mientras que solo hizo lo mismo con las mujeres de piel más clara el 7 % de las veces. Amazon está impulsando este algoritmo a pesar de estos problemas, que alega son engañosos. La mayoría de los algoritmos de identificación parecen tener problemas con las caras más oscuras.
Vigilancia
Otra aplicación aterradora en la que la IA podría (y se usa) es la vigilancia. Clearview.ai, una empresa emergente poco conocida, podría acabar con la privacidad tal como la conocemos. La empresa creó una base de datos de reconocimiento facial, combinando fotos de personas con su nombre e imágenes de las redes sociales. Algunas fuerzas del orden ya están utilizando la aplicación para obtener nombres y direcciones de posibles sospechosos, e incluso se ha convertido en un juguete para que los ricos puedan espiar a los clientes y las citas.
El ejército israelí está utilizando otro sistema de reconocimiento facial (Anyvision) para vigilar a los palestinos que viven en Cisjordania. El sistema también se utiliza en los puestos de control del ejército israelí que encierran la Palestina ocupada. Las IA también pueden identificar a las personas (a veces) a partir de su forma de andar y en China, este tipo de tecnología ya está ampliamente implementada. Incluso hay empresas interesadas en utilizar el análisis de la marcha para realizar un seguimiento de cuándo y dónde viajan sus empleados.
Si eso aún no lo asusta, las IA también se pueden usar para la censura y, al menos en China, ya se implementan a gran escala. WeChat, una aplicación de mensajería utilizada por casi mil millones de personas (principalmente en China), utiliza un análisis automático para detectar todos los textos e imágenes enviados a través de la plataforma y lo hace en tiempo real. El texto y las imágenes que se consideran dañinas (que incluyen imágenes de Winnie the Pooh) se eliminan en tiempo real y los usuarios son potencialmente prohibidos o investigados. El sistema se vuelve cada vez más poderoso con cada imagen enviada a través de la plataforma, y la censura ya es ineludible en China.
Quizás aún más preocupante es el hecho de que toda esta vigilancia algún día podría usarse en un sistema de crédito social donde un algoritmo determina qué tan digno es, por ejemplo, obtener un préstamo, o qué tan grave debe ser su castigo en caso de un delito. Una vez más, China está a la vanguardia y ya cuenta con un sistema de este tipo; entre otras cosas, el sistema prohíbe viajar a millones (porque tienen un puntaje de crédito demasiado bajo) y penaliza a las personas que comparten imágenes dañinas en las redes sociales. También juzga a las personas en función del tipo de compras que realizan y de sus relaciones interpersonales.
IA militares
Naturalmente, no sería una lista completa sin algunas aplicaciones militares de IA aterradoras.
Quizás el incidente más notable relacionado con el uso de armas por parte de la IA fue la ametralladora con IA utilizada para matar a un científico iraní fundamental para el sistema nuclear del país. Esencialmente, se montó una ametralladora en la parte trasera de un camión normal equipado con un sistema de satélite AI. El sistema trató de identificar a un científico iraní y la pistola automática controlada por satélite lo golpeó trece veces desde una distancia de 150 metros (490 pies), dejando a su esposa (que estaba sentada a solo 25 cm de él) físicamente ilesa. Luego, todo el sistema se autodestruyó, sin dejar rastros significativos. El incidente provocó ondas en todo el mundo, lo que demuestra que las armas de IA autónomas o semiautónomas ya son lo suficientemente buenas para ser utilizadas.
Los drones autónomos armados que pueden actuar en guerras también se utilizaron en el conflicto entre Armenia y Azerbaiyán, decidiendo el rumbo de la batalla al volar de forma autónoma y destruir objetivos clave y matar personas. Los tanques autónomos como el Uran-9 ruso también se probaron en la Guerra Civil Siria.
No hay escasez de usos de IA aterradores.
Desde la vigilancia y la discriminación hasta la ofensiva militar directa, la tecnología parece lo suficientemente madura como para causar daños reales, sustanciales y potencialmente duraderos en la sociedad. Los gobiernos autoritarios parecen ansiosos por utilizarlos, al igual que varios grupos de interés. Es importante tener en cuenta que, si bien la IA tiene un enorme potencial para producir un efecto positivo en el mundo, el potencial para usos nefastos es igual de grande.
"