INTERNACIONALES Internacionales - 

Unión Europea busca regular uso de aplicaciones de IA

La Unión Europea (UE) se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA.

AFP
Por AFP

Los legisladores del Parlamento Europeo votarán este jueves un proyecto de regulación sobre Inteligencia Artificial (IA), un documento ambicioso que está siendo objeto de una intensa discusión técnica y aborda la cuestión de las aplicaciones conversacionales como ChatGPT. La Unión Europea (UE) se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA, pero al mismo tiempo garantizar la innovación.

Entre las preocupaciones centrales de la iniciativa europea están la difusión de contenidos peligrosos, la manipulación de la opinión mediante la creación de imágenes falsas y sistemas de vigilancia masiva.

El gran público descubrió su inmenso potencial a finales del año pasado con el lanzamiento del generador de contenido editorial ChatGPT, de la empresa californiana OpenAI, capaz de escribir ensayos, poemas o traducciones en apenas segundos.

Ante estos rápidos cambios, la Comisión Europea propuso hace dos años un proyecto de ley general, y los países del bloque solamente definieron su posición a fines de 2022. Ahora, los eurodiputados definirán su postura en esta votación.

El nuevo paso abrirá una fase de difíciles negociaciones entre los europarlamentarios y los países miembros, y por ello la vicepresidenta de la Comisión Europea, Margrethe Vestager, llamó el lunes a no perder el tiempo.

"Realmente espero que podamos terminar [las negociaciones] este año"', dijo. "Realmente espero que podamos terminar [las negociaciones] este año"', dijo.

El retraso se explica en parte por la irrupción en el debate público de las llamadas inteligencias artificiales de propósito general, capaces de realizar una amplia variedad de tareas, incluidas las IA generativas como ChatGPT.

OpenAI CHATGPT INTELIGENCIA ARTIFICIAL 2023.jpg
La Unión Europea (UE) se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA, pero al mismo tiempo garantizar la innovación.

La Unión Europea (UE) se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA, pero al mismo tiempo garantizar la innovación.

- Discusión compleja -

En su propuesta, los eurodiputados quieren obligar a los proveedores a implementar protecciones contra el contenido ilegal y revelar los datos protegidos por derechos de autor utilizados para desarrollar sus algoritmos.

Quieren también prohibir los sistemas de reconocimiento de emociones y eliminar la identificación biométrica remota de personas en lugares públicos por parte de las fuerzas represivas.

También tienen la intención de prohibir la recolección masiva de fotos en internet para entrenar algoritmos sin el consentimiento de las personas involucradas.

Para el eurodiputado liberal rumano Dragos Tudorache, uno de los ponentes del proyecto, se trata de un "texto muy complejo y hemos añadido un nuevo régimen de reglas dedicadas a la IA generativa" según dijo a la AFP.

El corazón del proyecto consiste en una lista de reglas impuestas solo a las aplicaciones que serán consideradas de "alto riesgo" por las propias empresas.

Sin embargo, para Pierre Larouche, experto en derecho digital de la Universidad de Montreal e investigador del Centro de Regulación en Europa (CERRE, en inglés), los eventuales riesgos de la IA generativa no requieren un tratamiento aparte.

"No veo la razón del Parlamento. No veo en qué se diferencian estos riesgos de lo que ya se había anticipado" en la propuesta lanzada por la Comisión hace dos años, dijo el experto a la AFP. "No veo la razón del Parlamento. No veo en qué se diferencian estos riesgos de lo que ya se había anticipado" en la propuesta lanzada por la Comisión hace dos años, dijo el experto a la AFP.

La propuesta de la Comisión Europea, presentada en abril de 2021, ya impulsaba un marco para los sistemas de inteligencia artificial que interactúan con humanos.

Así, imponía el control humano sobre la máquina, divulgación de documentación técnica, o incluso la implementación de un sistema de gestión de riesgos.