Vacunación obligatoria. Di-SaaStr no cumple el Código de Nuremberg
30 junio, 2023Center Parcs Woburn Forest: un viaje de última hora que se convirtió en una experiencia lamentable
19 diciembre, 202310 de julio 2023
Inteligencia Artificial fue la “palabra del año” (sic) para la FundéuRAE en 2022. La masiva presencia en redes y medios de comunicación del término, que coincide con el lanzamiento de nuevas tecnologías que prometen facilitarnos la vida y de leyes que quieren protegernos de sus “peligros”, ha sido la razón principal para escogerla. La influencia en la vida de las personas a corto plazo parece innegable, si bien sus preceptos pueden chocar con las libertades individuales y contaminarse de intereses económicos y políticos.
Una ley europea con vocación global
Europa está siendo pionera en la elaboración de una ley de Inteligencia Artificial. El nuevo marco afectará a 27 países y a cerca de 450 millones de habitantes. El proyecto de ley se aprobó tras 18 meses de trabajo en mayo del pasado año. En la actualidad, el texto está en manos de organizaciones técnicas ajenas a la UE, que serán las encargadas de elaborar las normas que sostengan una ley que, según se prevé, se pondrá en marcha en algún momento de 2024. La ley de Inteligencia Artificial nace con la pretensión de regular la aplicación de estos sistemas en la esfera pública y de ser pionera en la creación de legislaciones similares a nivel global.
Uno de los puntos calientes son los llamados niveles de riesgo. Estos niveles evaluarán los momentos en los que los sesgos pueden originar discriminaciones, en sectores sensibles como el educativo y el sanitario o la movilidad, que requieran de la intervención humana. El nivel de riesgo más alto (de un total de 4 categorías: mínimo, limitado, alto e inadmisible), considerado una amenaza para la seguridad, dará lugar a la prohibición de estas aplicaciones. Por ejemplo, serían susceptibles de intervención las herramientas de IA que sean nocivas para el libre desarrollo de los menores de edad o que tengan como objetivo asignar una puntuación social a la población, algo que quedó retratado de forma terroríficamente verosímil en el episodio de la serie distópica Black Mirror titulado ‘Nosedive’, de 2016 (traducido en español como ’Caída en picado’). También entrarían en este nivel ‘inadmisible’ los usos que permitan falsear exámenes, influir en elecciones o decisiones de la administración pública o que supongan discriminación por raza o sexo. Los demás niveles de riesgo establecen medidas complementarias para garantizar los usos éticos. Estas medidas pueden ser avisos que aclaren que se está hablando con una máquina o cualquier otro precepto que aporte transparencia a la relación del usuario con la IA.
El reconocimiento biométrico ha estado en el centro del debate durante todo el proceso de elaboración de la ley, con unas facciones a favor de regularlo y otras abogando por su prohibición total. Al final, la norma general ha sido la de impedir su utilización, pero con algunas excepciones. Los reconocimientos quedan fuera de cualquier uso en lugar público y en directo, incluyendo aquellos dirigidos a prevenir delitos, pero se consideran admisibles cuando existe amenaza terrorista o se está tratando de localizar a un menor desaparecido, siempre con autorización judicial previa.
Incluir excepciones no es una decisión inocua, y los defensores acérrimos de la privacidad advierten de que abrir la puerta a “excepciones” puede ser el primer paso para legitimar vigilancias más agresivas. El texto del proyecto de ley es suficientemente vago para que no quede claro cuál es la línea roja que da lugar a la validez del reconocimiento facial cuando no es “en directo”, o cómo se podría aplicar durante una manifestación o evento masivo.
Inteligencia Artificial generativa y ethics washing
En los últimos meses, la conversación ha girado en torno a la tecnología de Inteligencia Artificial generativa, encarnada en ChatGPT, una aplicación surgida en noviembre de 2022 que articula respuestas en forma de diálogo con una verosimilitud y nivel de detalle que asusta. La IA generativa es una categoría del machine learning que aprende con cada interacción y es capaz de producir textos, leer código o ayudar a desarrollar aplicaciones.
ChatGPT recibe más de 10 millones de visitas diarias y las acciones de OpenIA, la empresa que se ha encargado de su lanzamiento, no dejan de revalorizarse. Mientras tanto, numerosas voces denuncian su sesgo ideológico o cuestionan su utilidad a largo plazo.
Benoît Piédallu, miembro de Le Quadrature du Net (La Cuadratura de la Red o LQDN), una importante organización que engloba a más de 70 asociaciones y que lucha por los derechos de la ciudadanía en el entorno digital, resta importancia a esta supuesta revolución, y califica a ChatGPT como “propaganda” sin beneficio real para la población. En esta línea se mueve también Cédric Sauviat, ingeniero politécnico y presidente de la Asociación Francesa contra la Inteligencia Artificial (AFCIA), que no duda en afirmar que “a los inventores de IA les gusta hacerse pasar por humanistas, pero su objetivo, su sueño, es hacerse multimillonarios". Sauviat ironiza sobre el hecho de que los encargados de desarrollar estas tecnologías sean también los que lancen los sistemas para controlar sus usos perniciosos, lo que les convierte a la misma vez en parte del problema y de la solución.
Como parte de este florecimiento de la Inteligencia Artificial, Microsoft ha anunciado una nueva aplicación llamada Vall-E, que consiste básicamente en la imitación fidedigna de la voz humana. Para ello, solo necesita una muestra de la voz a imitar de apenas 3 segundos. Vall-E analizará esta muestra y a partir de ella será capaz de “leer” cualquier texto con el timbre y tono de la persona sampleada. Aunque aún no está disponible para el público, las opciones que abre Vall-E a facilitar la actividad de los defraudadores o sustituir el trabajo de actores y locutores elevan la alerta y nos hace preguntarnos si perjudican a la sociedad más de lo que aportan.
Las grandes tecnológicas suelen exagerar su interés en la protección de la integridad de los ciudadanos, sobre todo en los meses previos al lanzamiento de grandes innovaciones susceptibles de llevar aparejada cierta polémica, como es el caso de los asistentes basados en IA. Abren debates, realizan encuestas y dilatan los plazos con la supuesta confección de protocolos. Este tipo de maniobras es lo que se conoce como ethics washing (algo así como ‘lavado ético’), y no pretende más que construir una imagen ficticia de seguridad. Convenciendo a la población de que están llevando a cabo decisiones justas y meditadas, desvían el foco de cuestiones sensibles y lanzan sus innovaciones, ocultando los riesgos, sin que la masa se rebele demasiado.
La inteligencia artificial ha llegado para quedarse, más allá de como ‘palabra del 2022’. Del control de sus límites y del poder que confiera a gobiernos de todo el mundo dependerá que se consolide como una útil herramienta o como una tuerca más de la maquinaria globalista de hipervigilancia y dominio de la corriente de pensamiento.