Recientemente, el empleado de Google, Blake Lemoine, apareció en los titulares cuando afirmó que la inteligencia artificial (IA), el modelo de lenguaje para la aplicación de diálogo (LaMDA), se volvió consciente o adquirió una conciencia similar a la humana, como la intuición, la autoconciencia y las emociones. Los científicos y filósofos han especulado durante mucho tiempo sobre los peligros que plantea la IA consciente, y las afirmaciones recientes solo han alimentado esa preocupación.
Las tecnologías emergentes, como la inteligencia artificial y el aprendizaje automático, están presentes en la mayoría de las interacciones y experiencias humanas. Han cambiado la forma en que las empresas, los gobiernos y las sociedades se comunican, acceden a la información y brindan y reciben servicios. Estas tecnologías operan en fábricas, hospitales, instalaciones de investigación, sistemas de transporte, comercio electrónico, finanzas, plataformas de redes sociales, infraestructura de comunicaciones, armas y sistemas de seguridad.
Países como EE. UU., China, Francia, Israel, Rusia y el Reino Unido tienen acceso a sistemas de armas autónomos que, una vez activados, pueden localizar, atacar, destruir o matar objetivos que están libres del control humano. Debemos reevaluar las leyes y normas internacionales que rigen la guerra y el uso de la fuerza en la aplicación de la ley. Además, las guerras futuras pueden ser completamente diferentes.
Los gobiernos y las empresas recurren cada vez más a la IA para tomar decisiones críticas que afectan la vida, el bienestar y los derechos de las personas en áreas vitales como la justicia penal, la prevención del delito, la atención médica y la atención social, entre otras. En Kenia, los sistemas de préstamos móviles utilizan inteligencia artificial para determinar la solvencia de una persona y determinar a cuánto dinero tiene acceso. Huduma Namba se está preparando para cambiar la forma en que se procesa nuestra información, lo que afecta el acceso a los servicios sociales.
Contrariamente a la creencia popular, la inteligencia artificial y el aprendizaje automático no son infalibles. Por el contrario, es impreciso y tiende a recrear el sesgo humano.
Por su complejidad, independencia, transparencia y debilidad, es difícil de regular. Primero, la complejidad de estos sistemas dificulta determinar dónde se toman las decisiones, qué actores están involucrados y en qué datos se confía, lo que reduce la previsibilidad y la comprensión de los resultados. En segundo lugar, una mayor autonomía dificulta la asignación de responsabilidades en el sentido tradicional. Por ejemplo, ¿quién sería responsable en caso de accidente de un coche autónomo que utiliza componentes y software de diferentes empresas?
En tercer lugar, la falta de transparencia de los algoritmos complejos en los criterios utilizados en la toma de decisiones dificulta interrogar y comprender las fallas. Finalmente, estos sistemas se basan en datos en cada etapa, sin los cuales no funcionarían o se confundirían. Además, son muy vulnerables a las filtraciones de datos y los ataques cibernéticos.
Dado que el aprendizaje automático para la inteligencia artificial y otras tecnologías emergentes se basan en conjuntos de datos masivos que se procesan con algoritmos complejos que aprenden automáticamente a medida que interpretan y procesan más y más datos de forma incremental, los humanos a menudo no entienden sus resultados. Estos resultados también son inesperados. Crea un efecto de «caja negra» en el que ningún ser humano, incluidos los diseñadores de estos sistemas, entiende cómo interactúan tantas variables para tomar decisiones. Es peligroso porque muchos asumen erróneamente que sus resultados son precisos, imparciales y basados en la ciencia.
La proliferación de tecnologías emergentes ha generado preocupación sobre muchos derechos humanos, incluido el derecho a la privacidad, la libertad de opinión, la libertad de expresión, la no discriminación y un juicio justo. Para continuar cosechando los beneficios de la IA mientras se protegen los derechos, los gobiernos, las empresas tecnológicas y otras partes interesadas deben promulgar estándares mínimos específicos que vinculen a todos los actores con ciertos estándares éticos y de derechos humanos.
«Web nerd. Pionero del alcohol. Pensador. Organizador. Explorador amigable con los inconformistas. Aficionado a los zombis. Estudiante».
More Stories
¿Los gatos se ponen tristes?
Los kenianos acuden en masa a Uganda para participar en el maratón Rwenzori, pero no logran vencer a los locales
Lograr el equilibrio a la luz de las transformaciones globales ⋆ Visegrad Insight