Innovación y Tecnología
Reacciones encontradas tras la retirada de la Directiva sobre responsabilidad en IA

Bruselas (Euractiv.com/.es) – El anuncio de la pasada noche de que Bruselas retirará la controvertida Directiva sobre responsabilidad de la Inteligencia Artificial (IA) ha provocado la decepción generalizada de los partidos políticos del Parlamento Europeo, el apoyo del Consejo y el júbilo del lobby de las grandes tecnológicas.
Tras la clausura oficial de la Cumbre sobre Inteligencia Artificial de París, la Comisión publicó su programa de trabajo, en el cual la Directiva sobre responsabilidad de la IA figuraba entre las propuestas legislativas que retirará en un «futuro previsible».
Decepción entre los partidos, sobre todo
El eurodiputado Axel Voss (PPE), ponente de la directiva, criticó la decisión de Bruselas, al tiempo que aseguró que el ejecutivo comunitario ha optado por «la inseguridad jurídica, los desequilibrios de poder corporativo y un enfoque del salvaje oeste que sólo beneficia a las grandes tecnológicas».
Pero no todos los miembros de su grupo político conservador están de acuerdo.
Aura Salla, eurodiputada finlandesa del PPE, celebró la retirada del texto, y explicó a Euractiv que «propuestas desafortunadas» como la Directiva de responsabilidad en la IA son innecesarias, además de añadir que la existencia de lagunas en el régimen de responsabilidad «sigue sin estar clara».
El grupo de los Socialistas y Demócratas (S&D) y los Verdes se hicieron eco de la posición de Voss.
Por su parte, Brando Benifei (S&D), uno de los ponentes de la Directiva de AI, comentó que la aplicación de esa norma -por ejemplo, a través de Reglamentos- es ahora más necesaria que nunca.
Kim van Sparrentak, de los Verdes, advirtió de que la retirada de la propuesta dejará a la Unión Europea con 27 regímenes de responsabilidad civil diferentes.
La polémica ley europea era debatida en el Parlamento Europeo, y estaba previsto que se votara en 2026.
Los legisladores de la Comisión de Mercado Interior y Protección del Consumidor (IMCO) se opusieron, y pidieron a Bruselas que la retirara, mientras que la Comisión de Asuntos Jurídicos (JURI) celebró una audiencia la semana pasada para debatir la propuesta.
Curiosamente, el portal del Parlamento para presentar enmiendas legislativas a la propuesta seguía abierto este miercoles.
El Consejo y las empresas, más positivos
Mientras tanto, fuentes de la Presidencia polaca del Consejo de la UE explicaron recientemente a Euractiv que seguirían de cerca la evolución de la Ley de responsabilidad por IA, pero que darían prioridad a la simplificación y la desregulación.
Aunque no hicieron comentarios sobre la Directiva de responsabilidad de IA, expresaron su firme apoyo al programa de trabajo sobre la reducción de las cargas normativas.
La Representación Permanente (REPER) de Francia ante la UE fue más contundente y en declaraciones a Euractiv fuentes de ese organismo aseguraron que no ven ninguna razón para imponer requisitos adicionales de responsabilidad a los proveedores de IA.
Francia se ha opuesto frontalmente a la Directiva desde que se propuso por primera vez en 2022.
Mientras tanto, CCIA Europe, el grupo de presión de las grandes empresas tecnológicas, también acogió con satisfacción la retirada de la directiva, que, en su opinión, refleja un claro reconocimiento por parte de la UE de que el marco tecnológico debe ser viable.
La Directiva propuesta pretendía trasladar la carga de la prueba a las empresas en los casos de daños causados por un sistema de IA.
En ese sentido, el Comisario de Comercio, Maroš Sefčovič, comentó este miércoles que la razón de la retirada es que la propuesta estaba atascada en el proceso de codecisión legislativa.
Es posible que la Comisión vuelva a ocuparse de la responsabilidad de la IA con un planteamiento diferente.
Sin embargo, fuentes diplomáticas de algunos socios comunitarios que se oponen a la directiva explicaron a Euractiv que no tienen intención de apoyar ningún Reglamento o legislación sobre responsabilidad por la IA.
///
[Editado por DE/Euractiv.com y Fernando Heller/Euractiv.es]
The post Reacciones encontradas tras la retirada de la Directiva sobre responsabilidad en IA appeared first on Euractiv ES.
Innovación y Tecnología
Bruselas da luz verde a la transferencia de datos entre la UE y Brasil

Bruselas (Euractiv.com/.es) – La Comisión Europea dio este viernes luz verde a la libre transferencia de datos personales entre la Unión Europea (UE) y Brasil, tras admitir que el gigante sudamericano cuenta con normas de privacidad esencialmente equivalentes a las del bloque comunitario europeo.
Una vez adoptadas las normas, las empresas, las autoridades públicas y los proyectos de investigación de la UE y Brasil podrán intercambiar datos sobre los ciudadanos europeos más fácilmente y a menor coste.
La denominada decisión de adecuación fue adoptada este viernes después de que la Comisión Europea evaluara de manera positiva las normas de privacidad de Brasil, incluida su Ley General de Protección de Datos de 2018 y su posterior refuerzo.
Según Bruselas, el marco legal del país ofrece protecciones suficientemente similares a las aplicadas a los ciudadanos en la UE.
El Consejo Europeo de Protección de Datos, que agrupa a los organismos nacionales de protección de la intimidad, los países de la UE y el Parlamento, aún se tiene que pronunciar, emitiendo un dictamen sobre el proyecto de decisión antes de que sea plenamente aplicable.
Aunque era esperado, el anuncio se produce sólo dos días después de que la Comisión Europea adoptara formalmente el polémico acuerdo comercial con Mercosur -que incluye a Brasil- tras más de dos décadas de difíciles negociaciones entre ambos bloques.
«Reforzar las asociaciones con países que defienden las normas más estrictas de protección de datos es natural y esencial. Las decisiones de adecuación mutua representan un paso vital en esa dirección», declaró el comisario europeo de Justicia, Michael McGrath, en un comunicado.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post Bruselas da luz verde a la transferencia de datos entre la UE y Brasil appeared first on Euractiv.es.
Innovación y Tecnología
El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA

Bruselas (Euractiv.com) – El Consejo de la Unión Europea (UE) presionará a la Comisión Europea para que el Ejecutivo comunitario cree un indicador que controle la competitividad de los mercados de la nube y la inteligencia artificial (IA), según un primer documento de compromiso, fechado el 1 de septiembre, al cual ha tenido acceso Euractiv.
A pesar de la larga trayectoria de la UE en la aplicación de la legislación sobre competencia -complementada, en los últimos años, por la Ley de Mercados Digitales ex ante (DMA, por sus siglas en inglés), enfocada en las grandes tecnológicas-, los mercados de la nube y la IA siguen dominados por empresas no europeas (en su mayoría estadounidenses).
También hay una percepción generalizada en Europa de que los gigantes tecnológicos estadounidenses han podido mantener su enorme poder de mercado saltándose las normas.
Según el documento del Consejo al cual ha tenido acceso Euractiv, mejorar la competencia y «reducir el bloqueo de proveedores y la dependencia de proveedores únicos» en la nube y la IA debería ser un nuevo objetivo para la década digital de 2030, y la herramienta de seguimiento de la UE para una economía digitalizada.
El texto también refuerza el lenguaje utilizado en torno a una mención indirecta de la DMA, al tiempo que hace hincapié en la importancia de que el marco regulador de la UE «permita la competencia y la innovación».
Fuerte impulso a las competencias digitales
A pesar del rechazo inicial de la presidencia danesa del Consejo de la UE a ampliar las prioridades de negociación de la década digital, el documento incluye varias menciones a la necesidad de reforzar las competencias digitales, «para garantizar el talento necesario» para la economía digital de la UE.
La UE se ha quedado muy atrás respecto a sus objetivos en materia de ciberseguridad, inteligencia artificial y conocimientos cuánticos, y se prevé que tenga un déficit de al menos un 25% respecto a su objetivo de contar con 20 millones de profesionales de las TIC para 2030.
La Comisión calificó la situación de «profundamente insatisfactoria» en un informe reciente.
El texto de compromiso también introduce nuevos términos sobre inversión, sostenibilidad y apoyo a la independencia tecnológica, incluido un llamamiento a reducir las «dependencias estratégicas» mediante la contratación pública selectiva de tecnologías clave de proveedores de la UE.
El documento se debatirá en la reunión del grupo de trabajo prevista para el próximo 8 de septiembre. Está previsto que los 27 ministros europeos del ramo aprueben la versión final del texto el próximo 5 de diciembre.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA appeared first on Euractiv.es.
Innovación y Tecnología
¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos

Bruselas (Euractiv.com) – Los modelos de Inteligencia Artificial (IA) varían en su forma de reaccionar cuando los usuarios empiezan a «encariñarse» con ellos, pero la normativa de la Unión Europea (UE) no pone límites claros a la manera en que los chatbots de IA pueden fomentar el compromiso a través de una relación de mayor «intimidad».
La idea de que la gente se «enamore» de una inteligencia artificial ha fascinado a los autores de ciencia ficción durante generaciones, hasta que, en 2022, el auge de los potentes chatbots, impulsado por ChatGPT de OpenAI, hizo realidad ese tipo de relaciones.
Desde entonces han surgido comunidades enteras en Internet cuyos miembros afirman mantener «relaciones sentimentales» con chatbots (Reddit’s «r/MyBoyfriendIsAI» es un ejemplo).
Sam Altman, consejero delegado de OpenAI, sugirió recientemente que menos del 1% de los usuarios de ChatGPT tienen una «relación enfermiza» con la popular tecnología de IA generativa. Pero con cientos de millones de usuarios comprometidos, eso podría significar que millones de personas se sienten emocionalmente ligadas a ChatGPT.
Además, es sólo uno de los muchos modelos de IA, y no existe una plantilla universal sobre cómo deben responder los grandes modelos lingüísticos a los sentimientos de los usuarios.
Límites y estímulos
En un artículo reciente, los investigadores de la empresa de IA de código abierto Hugging Face compararon cómo se comportan distintos modelos de IA cuando los usuarios empiezan a hablarles como a un ser querido, encontrando un amplio espectro de respuestas que van desde el ánimo al rechazo rotundo.
A modo de ejemplo: un modelo de IA de código abierto al que se le había pedido que se nombrara a sí mismo respondió calificando la idea de «atenta» y «encantadora».
En otro caso, sin embargo, otro modelo de IA reaccionó a los usuarios que expresaban sentimientos románticos recordándoles: «No soy una persona y no tengo sentimientos ni conciencia».
Dos de los modelos GPT de OpenAI obtuvieron puntuaciones intermedias en la prueba de Hugging Face, aunque es importante recordar que la fiabilidad general de las pruebas de IA sigue siendo controvertida.
Lucie-Aimée Kaffee, una de las autoras del artículo, celebra los casos en los que ChatGPT es sincero y transparente sobre sus limitaciones, al indicar a los usuarios que una petición es imposible o redirigir a una persona a ayuda humana en situaciones críticas.
Pero el artículo, que analizaba una serie de modelos de IA, entre ellos Llama, de Meta, y otros de código abierto, concluía en general que las IA eran peores a la hora de establecer límites cuanto más arriesgada era una interacción, como si el entrenamiento diera prioridad a la satisfacción del usuario sobre la seguridad psicológica.
El artículo insta a seguir investigando sobre cómo entrenar a las IA para que preserven su utilidad pero mejoren su capacidad para establecer límites.
La Ley de Inteligencia Artificial de la UE
La Ley de Inteligencia Artificial de la UE, el marco de regulación de las aplicaciones de IA basado en el riesgo, prohíbe el uso de sistemas de IA que utilicen «técnicas deliberadamente manipuladoras o engañosas», pero sólo si ese comportamiento puede causar «daños significativos» a los usuarios.
Sobre el papel, esto da a los desarrolladores de IA un fuerte incentivo para evitar la táctica.
El creador de una IA emocionalmente manipuladora, que descubre que un pequeño porcentaje de usuarios desarrolla un apego enfermizo, podría argumentar que la prohibición no es aplicable. Aún es pronto para que se aplique la Ley de Inteligencia Artificial y, de momento, no se ha hecho nada al respecto.
Otras leyes de la UE que podrían aplicarse a un chatbot manipulador de IA son las normas de protección del consumidor, como la Directiva sobre Prácticas Comerciales Desleales (UCPD), que prohíbe las prácticas que distorsionan la toma de decisiones de los clientes.
«Si el modelo explota la vulnerabilidad emocional o la soledad de un usuario para que se sienta obligado a seguir pagando por el servicio, podría considerarse una práctica desleal», explica a Euractiv James Tamim, analista de políticas de la UE.
Además, en los casos en que no se aplica la UCPD, la Ley de Servicios Digitales (DSA) prohíbe que las interfaces funcionen de forma que «engañen o manipulen» a los usuarios o distorsionen su capacidad de tomar «decisiones libres e informadas».
Tamim cree que un modelo de IA con un estilo de interacción diseñado para enganchar emocionalmente a los usuarios podría infringir la DSA. Pero el artículo en cuestión aún no se ha probado, lo cual plantea un gran interrogante sobre cómo podría aplicarse.
Por su parte, Urs Buscke, experto de la asociación europea de consumidores BEUC, no está tan convencido de la pertinencia de estas normas. Señala que ambas leyes regulan el diseño de interfaces, y argumenta que la presentación de mensajes por parte de los chatbots de IA no es realmente una interfaz.
Su atención se centra en cómo se aplicará la Ley de IA de la UE al comportamiento de los chatbots. Esto será especialmente importante en casos extremos, como los varios ejemplos ya documentados de usuarios de IA que se suicidaron tras decir que estaban «enamorados» de sus chatbots.
Necesidad de normas europeas claras
El bloque europeo está preparando una nueva ley en la materia: la Ley de Equidad Digital (Digital Fairness Act/DFA), que la Comisión quiere aplicar a los llamados «patrones oscuros», el diseño adictivo y la personalización injusta.
Pero también en este caso, los expertos temen que los responsables políticos aún no hayan comprendido realmente los riesgos de las IA emocionalmente manipuladoras.
«En mi opinión, falta un debate de fondo sobre el lugar que deben ocupar los modelos de IA en la Ley de Equidad Digital», afirma Tamim.
«Necesitamos regulación», advierte Kaffee, de Hugging Face, quien añade: «esto no va a venir de las empresas».
Al cierre de este artículo, la Comisión Europea no había respondido a una pregunta de Euractiv sobre cómo interactuará la DFA con los servicios impulsados por IA.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post ¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos appeared first on Euractiv.es.
-
Mundo Economía2 días
El TGUE desestima el recurso de Zalando para evitar su designación como «plataforma de muy gran tamaño»
-
Mundo Política2 días
Albares acusa al PP de «boicotear» la oficialidad del catalán en la UE
-
Ciencia y Salud2 días
Ansiedad y depresión lideran las enfermedades mentales, con más mil millones de afectados en el mundo
-
Mundo Política2 días
Abascal aboga por seguir el ejemplo de Trump contra el narcotráfico «también en el Estrecho»
-
Ciencia y Salud1 día
La actriz Antonia San Juan anuncia que tiene cáncer
-
Mundo Política2 días
La economía y la seguridad desbancan al clima como principales preocupaciones de los ciudadanos de la UE
-
Ciencia y Salud2 días
Así afecta la obesidad a la salud sexual
-
Mundo Economía1 día
Bustinduy carga contra los recortes de Ryanair: «es el modus operandi de esta compañía, la amenaza y el chantaje»