La presidencia española de la UE establece una serie de opciones sobre temas clave de negociación – EURACTIV Italia

La definición de inteligencia artificial (IA), la clasificación de sistemas de alto riesgo, la lista de casos críticos de uso de la IA y la evaluación del impacto en los derechos fundamentales estarán sobre la mesa del Consejo Europeo esta semana, mientras la presidencia española en La oficina se prepara para iniciar negociaciones sobre un tema muy delicado.

España asumió la presidencia rotatoria del Consejo de Ministros de la UE el 1 de julio. Además de sus prioridades digitales, Madrid busca un acuerdo político sobre la Ley de IA, una legislación clave para regular la inteligencia artificial en función de su potencial nocivo.

La Presidencia española publicó un documento, fechado el 29 de junio y visto por EURACTIV, para informar de un intercambio de opiniones sobre cuatro puntos críticos de la regulación de la IA previsto para el miércoles 5 de julio en el seno del grupo de trabajo Telecom, el órgano técnico del Consejo.

Estas discusiones informarán la posición de la presidencia durante la próxima ronda de negociaciones con el Consejo, el Parlamento y la Comisión de la UE, denominadas diálogos tripartitos, el 18 de julio.

La definición de IA

La definición de inteligencia artificial del Parlamento Europeo se alinea con la de la Organización para la Cooperación y el Desarrollo Económico (OCDE), intentando anticipar los ajustes futuros que se debaten actualmente en el seno de la organización internacional.

«Sistema de inteligencia artificial: un sistema basado en una máquina diseñado para operar con distintos niveles de autonomía y que puede, con fines explícitos o implícitos, generar resultados como predicciones, recomendaciones o decisiones que influyen en entornos físicos o virtuales», leemos en el medio europeo El texto del Parlamento.

A diferencia del Parlamento Europeo, el Consejo, aunque adoptó ciertos elementos de la definición de la OCDE, la limitó aún más a enfoques de aprendizaje automático y enfoques basados ​​en la lógica y el conocimiento para evitar que el software tradicional no entre en la definición.

“Esta definición [dell’OCSE] parece abarcar software que no debería clasificarse como IA», se lee en la nota de la presidencia española, que indica tres opciones posibles: ceñirse al texto del Consejo, acercarse al Parlamento o esperar al diálogo tripartito de septiembre para evaluar el rumbo que está tomando la OCDE.

Clasificación de alto riesgo

La Ley de IA exige que los desarrolladores de sistemas de alto riesgo que podrían dañar la seguridad y los derechos fundamentales de las personas cumplan con un régimen más riguroso de gestión de riesgos, gobernanza de datos y documentación técnica.

La forma en que los sistemas deberían encajar en esta categoría ha estado sujeta a cambios profundos. Inicialmente, el proyecto de ley clasificaba automáticamente las aplicaciones de IA de alto riesgo en una lista de casos de uso del Anexo III. Los dos colegisladores eliminaron este automatismo e introdujeron una “capa adicional”.

Para el Consejo Europeo, este nivel se refiere a la importancia de los resultados del sistema de IA en el proceso de toma de decisiones, quedando excluidos del ámbito los resultados puramente auxiliares.

Los eurodiputados, por su parte, introdujeron un sistema mediante el cual los desarrolladores de IA tendrían que autoevaluar si la aplicación cubierta por el Anexo III presenta un alto riesgo, basándose en las orientaciones proporcionadas por la Comisión Europea. Si las empresas creen que su sistema no presenta un riesgo elevado, deberán informar a la autoridad competente, que deberá responder en un plazo de tres meses si considera que ha habido una clasificación errónea.

También en este caso las opciones incluyen mantener el enfoque general del Consejo o más bien un enfoque más similar al del Parlamento, pero también en este caso se están considerando varias soluciones intermedias.

Una opción es adoptar la versión de los parlamentarios, pero sin notificarlo a las autoridades competentes. Alternativamente, esta versión podría perfeccionarse aún más introduciendo criterios claros para la autoevaluación de los proveedores de IA en forma de reglas vinculantes en lugar de directrices “blandas”.

La propuesta final es el sistema propuesto por el Parlamento sin notificación y con criterios vinculantes, pero que también prevé la exploración de «otras opciones para proporcionar más orientación a los proveedores, por ejemplo mediante el uso de un repositorio de ejemplos de sistemas de IA cubiertos por el Anexo III». que no debe considerarse de alto riesgo.

La lista de casos de uso de IA de alto riesgo

Los países de la UE han eliminado el uso de la IA en el reconocimiento policial de imágenes o vídeos falsos, el análisis de delitos y la verificación de la autenticidad de los documentos de viaje, añadiendo al mismo tiempo el uso de sistemas de IA para infraestructuras digitales críticas. y seguros de vida y de salud.

Los parlamentarios ampliaron significativamente la lista al introducir datos biométricos, infraestructura crítica, sistemas de recomendación de las redes sociales más grandes, sistemas que podrían influir en los resultados electorales, inteligencia artificial utilizada en la resolución de disputas y gestión de fronteras.

«Se invita a las delegaciones a expresar sus opiniones sobre las adiciones y modificaciones descritas anteriormente», continúa la nota.

Evaluación de impacto sobre los derechos fundamentales

Los eurodiputados de centroizquierda quisieran obligar a los usuarios de sistemas de inteligencia artificial de alto riesgo a realizar una evaluación de impacto sobre los derechos fundamentales antes de poner en funcionamiento la herramienta. La evaluación debe incluir el uso previsto, el alcance temporal y las categorías de personas en los grupos que probablemente se verán afectadas.

Además, se debe realizar una consulta de seis semanas con las partes interesadas para informar la evaluación de impacto.

“El texto del Consejo no prevé tal obligación, y es importante recordar que el RGPD [regolamento generale sulla protezione dei dati] Ya exige que las empresas y organizaciones públicas examinen si es probable que surjan altos riesgos para los derechos y libertades al procesar sus datos personales”, añade el documento.

Además, la presidencia española no dio al Parlamento la posibilidad de aprobar el texto sin limitar la medida únicamente a usos del sector público. Otras opciones incluyen eliminar el período de consulta de seis semanas o exigir que las autoridades sean informadas de la evaluación.

[Modificato da Alice Taylor]

leyes aquí el artículo original.

Martita Bailon

"Amante de Twitter. Escritor amigable. Pensador galardonado. Fanático de la comida incondicional. Amigo de los animales en todas partes. Analista incurable".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *