![🥇 [2022] ¿Es ética la inteligencia artificial? 1 AI e1552517943315](https://www.nidocreativo.es/wp-content/uploads/2022/06/AI-e1552517943315.jpg)
En 2016, Microsoft lanzó un chatbot diseñado para interactuar con personas a través de Twitter. Equipado con una rutina de inteligencia artificial que analiza el habla, el bot deberÃa mostrar cómo las máquinas pueden imitar la comunicación humana. Desafortunadamente, Microsoft tuvo que eliminar el bot cuando comenzó a twittear comentarios racistas y sexistas; Su motor de inteligencia artificial se inundó con discursos de odio de bromistas y otros malos actores en lÃnea. Bueno, la rutina de IA en sà misma ciertamente no era sexista ni racista, simplemente imitaba el habla en función de los datos que recibÃa. Estoy seguro de que este incidente ha provocado muchas bromas sobre cómo las máquinas habilitadas para IA se convierten en genios malvados empeñados en conquistar a la humanidad. Pero creo que lo que realmente muestra es que la verdadera amenaza en nuestra generación actual de IA no es la IA, sino nosotros mismos.
Anteriormente escribà sobre cómo los temores de que las máquinas impulsadas por IA hagan que el trabajo humano sea irrelevante son infundados. En resumen, si bien los humanos no son tan rápidos o precisos como las computadoras cuando se trata de analizar datos, las computadoras no son rival para nosotros cuando se trata de la aplicación informada de ese análisis, la creatividad, el pensamiento lateral y la inteligencia emocional. Tenemos un pensamiento crÃtico y una experiencia que las computadoras de hoy simplemente no pueden replicar. Asimismo, las computadoras no tienen la capacidad de pensar éticamente como los humanos. A pesar de su sofisticación, AI es solo otra herramienta al final del dÃa. Y como cualquier herramienta, no es ético, pero puede usarse para hacer cosas poco éticas si es manejado por una persona poco ética, sin escrúpulos o simplemente ignorante. Sin embargo, con mayor frecuencia, la IA se comporta de manera poco ética porque no ha sido entrenada adecuadamente.
Tomemos, por ejemplo, los sistemas de procesamiento de imágenes compatibles con IA. Investigaciones recientes han encontrado que una popular plataforma de software de reconocimiento facial tiene «tasas de error mucho más altas en la asignación de sexo para mujeres de piel oscura que para hombres de piel clara». ¿La IA es racista? No, pero reproduce los sesgos institucionales inherentes a la sociedad. En este caso, los modelos de entrenamiento utilizados para instruir al algoritmo de IA para identificar rostros consistieron principalmente en rostros de hombres blancos. En consecuencia, el algoritmo fue mejor para identificar las caras con las que tenÃa más experiencia. Ahora imagine que las agencias de aplicación de la ley utilizan esta tecnologÃa de visión habilitada por IA para escanear multitudes en espacios públicos ocupados en busca de un criminal buscado. Si ese delincuente fuera una persona de color, serÃa más probable que la IA identificara erróneamente a una persona de color inocente como el delincuente, que un delincuente blanco.
El autor de ciencia ficción Isaac Asimov desarrolló las tres leyes de la robótica. Las Leyes establecen un marco ético simple sobre cómo los robots deben interactuar con los humanos, y las Leyes se establecen inmutablemente en el cerebro positrónico del robot (también conocido como IA). no pueden ser ignorados. En su totalidad, las leyes dicen:
• Un robot no debe dañar a un humano o, por inacción, permitir que un humano sea dañado.
• Un robot debe obedecer las órdenes que le den los humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
• Un robot debe proteger su propia existencia siempre que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Con estas reglas, los humanos pueden estar seguros de que sus interacciones con los robots son seguras. Incluso si un humano ordenara al robot que dañara a otro humano, su «conciencia digital» le impedirÃa ejecutar la orden.
Creo que deberÃa aplicarse un código de ética similar al desarrollo de la IA. Los cientÃficos de datos y los profesionales de TI necesitan verificar los resultados de su análisis de algoritmos de IA no solo por su precisión, sino también por la aplicación justa y ética de ese análisis.
Si bien esto requerirá mucho trabajo y colaboración entre las empresas, la academia y los usuarios finales, es fundamental que tomemos medidas de seguridad éticas al aplicar la tecnologÃa de IA en nuestra vida diaria. La IA está evolucionando rápidamente y los riesgos de que pueda permitir un comportamiento poco ético por parte de sus usuarios, incluso sin querer, son reales. Estas cajas de seguridad ahora deben definirse para que puedan usarse para administrar el rendimiento de las aplicaciones de IA en el futuro.