Allá por el mes de mayo, la Unión Europea (UE) reafirmó su intención de convertirse en el primer bloque geopolítico con regulación acerca de la Inteligencia Artificial (IA). Varios meses después, la polémica está servida gracias al comunicado de un grupo llamado Brookings.
El grupo de expertos denuncia que la regulación de la UE sobre la IA podría perjudicar a los desarrolladores de código abierto enormemente. En este post del blog de Befree vamos a detallar y profundizar en los argumentos que ofrecen.
Así es la regulación propuesta por la UE
La propuesta regulatoria de la UE fue el resultado de un largo proceso de análisis, estudios previos y consultas realizadas por instituciones comunitarias. Todo ello nació a partir de la necesidad de abordar una tecnología disruptiva que ya es una realidad. Esta tecnología está teniendo un impacto en las formas de trabajar, relacionarnos y en el modo en el que funciona nuestra sociedad.
Los objetivos marcados y anunciados por la propia UE al respecto son varios. Entre ellos destacan los de «garantizar la seguridad y el respeto a la legislación vigente de la IA» o «facilitar el desarrollo de un mercado único para un uso legal, seguro y fiable de las aplicaciones de IA y evitar la fragmentación del mercado».
La legislación propuesta prohíbe varias prácticas. Entre ellas, «la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona, que aproveche alguna vulnerabilidad de un grupo específico o que evalúen o clasifiquen la fiabilidad de personas físicas«. Aquí podréis encontrar más información al respecto.
Las quejas de Brookings
Como decíamos, la polémica está servida. Un grupo de expertos llamado Brookings denunció públicamente que la legislación de la UE sobre la IA podría echar por tierra el desarrollo de herramientas de código abierto como GPT-3. Brookings indica que la propuesta creará «responsabilidades legales añadidas para los sistemas de IA de carácter general».
Según el borrador de la ley, los desarrolladores de open source o código abierto tendrían que cumplir con un número de pautas sobre gestión de riesgos, gobierno de datos, documentación técnica y transparencia y estándares de precisión y seguridad. Así, si una empresa implementa un sistema de IA que no funciona, podría pedirle responsabilidades a la comunidad de desarrolladores que creó el producto.
“Esto podría concentrar aún más el poder de la IA en las grandes corporaciones tecnológicas. Se evitarían procesos de investigación, que son fundamentales para su comprensión pública”, explica el autor del comunicado, Alex Engker. En conclusión, el intento de legislación de la UE sobre la IA podría crear un conjunto de requisitos que pondrían seriamente en peligro a toda la comunidad de técnicos. Además, la amenaza final de que no se mejoren los sistemas de IA de interés general sobrevolaría.