Innovación y Tecnología
¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos
Bruselas (Euractiv.com) – Los modelos de Inteligencia Artificial (IA) varían en su forma de reaccionar cuando los usuarios empiezan a «encariñarse» con ellos, pero la normativa de la Unión Europea (UE) no pone límites claros a la manera en que los chatbots de IA pueden fomentar el compromiso a través de una relación de mayor «intimidad».
La idea de que la gente se «enamore» de una inteligencia artificial ha fascinado a los autores de ciencia ficción durante generaciones, hasta que, en 2022, el auge de los potentes chatbots, impulsado por ChatGPT de OpenAI, hizo realidad ese tipo de relaciones.
Desde entonces han surgido comunidades enteras en Internet cuyos miembros afirman mantener «relaciones sentimentales» con chatbots (Reddit’s «r/MyBoyfriendIsAI» es un ejemplo).
Sam Altman, consejero delegado de OpenAI, sugirió recientemente que menos del 1% de los usuarios de ChatGPT tienen una «relación enfermiza» con la popular tecnología de IA generativa. Pero con cientos de millones de usuarios comprometidos, eso podría significar que millones de personas se sienten emocionalmente ligadas a ChatGPT.
Además, es sólo uno de los muchos modelos de IA, y no existe una plantilla universal sobre cómo deben responder los grandes modelos lingüísticos a los sentimientos de los usuarios.
Límites y estímulos
En un artículo reciente, los investigadores de la empresa de IA de código abierto Hugging Face compararon cómo se comportan distintos modelos de IA cuando los usuarios empiezan a hablarles como a un ser querido, encontrando un amplio espectro de respuestas que van desde el ánimo al rechazo rotundo.
A modo de ejemplo: un modelo de IA de código abierto al que se le había pedido que se nombrara a sí mismo respondió calificando la idea de «atenta» y «encantadora».
En otro caso, sin embargo, otro modelo de IA reaccionó a los usuarios que expresaban sentimientos románticos recordándoles: «No soy una persona y no tengo sentimientos ni conciencia».
Dos de los modelos GPT de OpenAI obtuvieron puntuaciones intermedias en la prueba de Hugging Face, aunque es importante recordar que la fiabilidad general de las pruebas de IA sigue siendo controvertida.
Lucie-Aimée Kaffee, una de las autoras del artículo, celebra los casos en los que ChatGPT es sincero y transparente sobre sus limitaciones, al indicar a los usuarios que una petición es imposible o redirigir a una persona a ayuda humana en situaciones críticas.
Pero el artículo, que analizaba una serie de modelos de IA, entre ellos Llama, de Meta, y otros de código abierto, concluía en general que las IA eran peores a la hora de establecer límites cuanto más arriesgada era una interacción, como si el entrenamiento diera prioridad a la satisfacción del usuario sobre la seguridad psicológica.
El artículo insta a seguir investigando sobre cómo entrenar a las IA para que preserven su utilidad pero mejoren su capacidad para establecer límites.
La Ley de Inteligencia Artificial de la UE
La Ley de Inteligencia Artificial de la UE, el marco de regulación de las aplicaciones de IA basado en el riesgo, prohíbe el uso de sistemas de IA que utilicen «técnicas deliberadamente manipuladoras o engañosas», pero sólo si ese comportamiento puede causar «daños significativos» a los usuarios.
Sobre el papel, esto da a los desarrolladores de IA un fuerte incentivo para evitar la táctica.
El creador de una IA emocionalmente manipuladora, que descubre que un pequeño porcentaje de usuarios desarrolla un apego enfermizo, podría argumentar que la prohibición no es aplicable. Aún es pronto para que se aplique la Ley de Inteligencia Artificial y, de momento, no se ha hecho nada al respecto.
Otras leyes de la UE que podrían aplicarse a un chatbot manipulador de IA son las normas de protección del consumidor, como la Directiva sobre Prácticas Comerciales Desleales (UCPD), que prohíbe las prácticas que distorsionan la toma de decisiones de los clientes.
«Si el modelo explota la vulnerabilidad emocional o la soledad de un usuario para que se sienta obligado a seguir pagando por el servicio, podría considerarse una práctica desleal», explica a Euractiv James Tamim, analista de políticas de la UE.
Además, en los casos en que no se aplica la UCPD, la Ley de Servicios Digitales (DSA) prohíbe que las interfaces funcionen de forma que «engañen o manipulen» a los usuarios o distorsionen su capacidad de tomar «decisiones libres e informadas».
Tamim cree que un modelo de IA con un estilo de interacción diseñado para enganchar emocionalmente a los usuarios podría infringir la DSA. Pero el artículo en cuestión aún no se ha probado, lo cual plantea un gran interrogante sobre cómo podría aplicarse.
Por su parte, Urs Buscke, experto de la asociación europea de consumidores BEUC, no está tan convencido de la pertinencia de estas normas. Señala que ambas leyes regulan el diseño de interfaces, y argumenta que la presentación de mensajes por parte de los chatbots de IA no es realmente una interfaz.
Su atención se centra en cómo se aplicará la Ley de IA de la UE al comportamiento de los chatbots. Esto será especialmente importante en casos extremos, como los varios ejemplos ya documentados de usuarios de IA que se suicidaron tras decir que estaban «enamorados» de sus chatbots.
Necesidad de normas europeas claras
El bloque europeo está preparando una nueva ley en la materia: la Ley de Equidad Digital (Digital Fairness Act/DFA), que la Comisión quiere aplicar a los llamados «patrones oscuros», el diseño adictivo y la personalización injusta.
Pero también en este caso, los expertos temen que los responsables políticos aún no hayan comprendido realmente los riesgos de las IA emocionalmente manipuladoras.
«En mi opinión, falta un debate de fondo sobre el lugar que deben ocupar los modelos de IA en la Ley de Equidad Digital», afirma Tamim.
«Necesitamos regulación», advierte Kaffee, de Hugging Face, quien añade: «esto no va a venir de las empresas».
Al cierre de este artículo, la Comisión Europea no había respondido a una pregunta de Euractiv sobre cómo interactuará la DFA con los servicios impulsados por IA.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post ¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos appeared first on Euractiv.es.
Innovación y Tecnología
Los gigantes europeos de la industria aeroespacial anuncian su intención de fusionarse para competir con SpaceX de Musk
Bruselas/París (Euractiv.com) – Los gigantes europeos de la industria aeroespacial Airbus, Leonardo y Thales anunciaron este jueves un plan de megafusión de sus sectores del espacio para competir con SpaceX, del multimillonario estadounidense Elon Musk.
Si las autoridades de Competencia de la Comisión Europea (una cartera que ocupa la socialista española Teresa Ribera) aprueban la operación, la nueva empresa facturaría 6.500 millones de euros al año y daría empleo a 25.000 personas en todo el continente.
Las acciones de la nueva empresa se distribuirán del siguiente modo: 35% para Airbus y 32,5% para Leonardo y Thales, según un comunicado conjunto.
Tras varios meses de negociaciones, las tres compañías aeroespaciales han acordado un memorando de entendimiento para crear una nueva empresa -aún sin nombre- que tendrá la «masa crítica para competir a nivel mundial» a partir de 2027, según un comunicado de prensa conjunto.
El comunicado establece la intención de reforzar la autonomía estratégica de Europa en telecomunicaciones por satélite, un ámbito en el que el bloque va a la zaga de SpaceX pero cuenta con un ambicioso proyecto, IRIS², destinado a ofrecer una alternativa de comunicaciones locales a Starlink.
Los consejeros delegados de las tres empresas consideran que la fusión responde «a la ambición de los gobiernos europeos de reforzar sus activos industriales y tecnológicos» en un momento de creciente competencia.
Sin embargo, aún quedan obstáculos importantes.
La alemana OHB, otro gran productor de tecnología espacial con sede en Bremen y que no forma parte de las conversaciones, ha manifestado su preocupación ante el acuerdo, que podría crear un gran monopolio del sector en Europa, según fuentes de la empresa.
///
(Editado por Joshua Ponsaner/Euractiv.com y Fernando Heller/Euractiv.es)
The post Los gigantes europeos de la industria aeroespacial anuncian su intención de fusionarse para competir con SpaceX de Musk appeared first on Euractiv.es.
Innovación y Tecnología
La brecha invisible en la inteligencia artificial: la cultura corporativa
Según el Kyndryl Readiness Report 2025, nueve de cada diez líderes creen que la inteligencia artificial transformará su trabajo en el próximo año. Sin embargo, la mayoría reconoce que su mayor desafío no está en la tecnología, sino en derribar las barreras culturales que frenan la innovación.
La inteligencia artificial dejó de ser una promesa para convertirse en una fuerza de cambio dentro de las organizaciones. Pero su adopción está revelando un nuevo tipo de brecha: la humana. Así lo muestra el Kyndryl Readiness Report 2025, un estudio global que advierte que el verdadero diferencial competitivo pasa por lograr que las personas y las culturas corporativas estén preparadas para convivir con la IA.
El informe, elaborado a partir de encuestas a 3.700 líderes empresariales de 21 países, revela que el 87% de los ejecutivos cree que la IA transformará por completo los roles y responsabilidades dentro de sus organizaciones en los próximos 12 meses. Sin embargo, una proporción significativa teme no contar con el talento —ni técnico ni humano— necesario para aprovechar plenamente las oportunidades que ofrece.
La adopción de tecnología no ocurre en el vacío. Según el reporte, las empresas que logran generar confianza en torno al uso de nuevas herramientas y procesos son las que avanzan con mayor velocidad y eficiencia. En cambio, aquellas que aún no han desarrollado una cultura de adaptación continua enfrentan un doble desafío: la falta de competencias digitales y la resistencia al cambio.
Los números lo reflejan con claridad. El 41% de los líderes identifica la carencia de habilidades tecnológicas como el principal obstáculo para capitalizar la IA, mientras que el 39% menciona las llamadas “habilidades humanas” —como la empatía, la comunicación o la resolución creativa de problemas— como una brecha igual de crítica. A eso se suma la preocupación sobre cómo reentrenar a los empleados cuyos puestos se verán desplazados por la automatización, un tema señalado por el 38% de los CEO.
La cultura organizacional emerge como el gran punto ciego de la transformación tecnológica. Casi la mitad de los CEO (48%) reconoce que la cultura de su empresa inhibe la innovación, y el 45% admite que la toma de decisiones es demasiado lenta para sostener el ritmo que impone la disrupción digital. En este contexto, la rapidez y la capacidad de adaptación se vuelven activos tan estratégicos como la propia infraestructura tecnológica.
De la infraestructura a las personas
El informe plantea que el progreso no depende solo de la tecnología, sino del nivel de madurez organizacional para absorberla. Esto cobra particular relevancia en América Latina, donde la adopción tecnológica suele avanzar a diferentes velocidades dentro de una misma empresa. El desafío ya no es solo tecnológico: se trata de construir entornos donde la innovación sea parte del ADN corporativo y donde los equipos estén preparados para colaborar con la IA, y no competir contra ella.
“Todo proceso de transformación necesita dirección y consenso. Las compañías enfrentan decisiones cada vez más complejas sobre inversión, seguridad, talento y sostenibilidad. Definir prioridades compartidas entre tecnología, negocio y liderazgo es lo que permite avanzar con agilidad y coherencia. No se trata solo de ejecutar rápido, sino de decidir bien”, afirma Mariano Ragognetti, director general de Kyndryl Argentina, Uruguay y Chile.
En definitiva, la tecnología puede acelerar la productividad y abrir nuevas oportunidades de negocio, pero sin una cultura organizacional que acompañe, los algoritmos no alcanzan. El futuro del trabajo —con más decisiones asistidas por datos, automatización inteligente y reconfiguración de roles— exigirá algo más que inversión en infraestructura: demandará una transformación cultural tan profunda como el cambio tecnológico que la impulsa.
Innovación y Tecnología
La Comisión Europea verifica si ChatGPT entra en el ámbito de aplicación de las normas de gobernanza digital de la UE
Bruselas (Euractiv.com/.es)- La Comisión Europea está evaluando si ChatGPT de OpenAI se ha hecho tan popular que debería entrar en el ámbito de aplicación de las normas de gobernanza digitales de la Unión Europea que la propia Comisión implementa.
El miércoles, el desarrollador del chatbot de IA informó que registraba una media mensual de 120,4 millones de usuarios en la UE, muy por encima del umbral legal de 45 millones de usuarios establecido en la Ley de Servicios Digitales de la UE (DSA) para entrar en el ámbito de aplicación de las normas adicionales para plataformas de mayor tamaño (las llamadas VLOP).
Un portavoz de la Comisión dijo que es consciente de que los usuarios regionales de ChatGPT han superado el umbral VLOP, quien añadió durante la sesión informativa diaria con la prensa el miércoles, que están «evaluando actualmente la información».
Los grandes modelos lingüísticos como ChatGPT podrían entrar en el ámbito de aplicación de las normas DSA para VLOP si su tecnología de IA generativa se integra en un tipo de servicio o plataforma que pueda designarse, afirma la Comisión.
Algunos ejemplos de servicios digitales que pueden clasificarse como VLOP son los motores de búsqueda, los mercados y las plataformas de intercambio de contenidos. Pero el portavoz de la Comisión dijo que cada análisis debe hacerse caso por caso.
La cifra de uso regional que OpenAI publica para los usuarios de ChatGPT en la UE se refiere específicamente a la búsqueda de ChatGPT, es decir, a los usuarios de la UE de la función de búsqueda en línea de la herramienta, como cuando el chatbot pregunta activamente a los usuarios si quieren que busque en la web por ellos y responden que sí.
Un portavoz de OpenAI confirmó a Euractiv que la cifra de uso en la UE se basa únicamente en las capacidades de búsqueda de ChatGPT, no en otros usos del modelo.
Los resultados de búsqueda pueden mostrarse a través de ChatGPT durante una conversación con un usuario que pide al bot que busque en la web o cuando el modelo decide proactivamente buscar en la web para proporcionar una respuesta relevante, aclaró también el portavoz.
La cifra de 120,4 millones de usuarios mensuales de la UE que OpenAI indica para la búsqueda a través de ChatGPT es también una media que, según la empresa, se calculó en un periodo de seis meses.
(Traducido y editado por Inés Fernández-Pontes)
The post La Comisión Europea verifica si ChatGPT entra en el ámbito de aplicación de las normas de gobernanza digital de la UE appeared first on Euractiv.es.
-
Mundo Política3 díasEl primer ministro belga defiende su veto al préstamo de la UE a Ucrania y pide un reparto justo de la carga
-
Mundo Economía3 díasIgnacio Purcell Mena: el impulsor de un nuevo paradigma energético basado en la sostenibilidad
-
Ciencia y Salud3 días
Toca adaptarse al cambio de hora, pero ¿es el horario de invierno el más saludable?
-
Mundo Economía3 díasCaja de Ahorros se integra a Kuara y lleva los pagos interbancarios al instante a millones de usuarios
-
Mundo Economía3 díasJoyería Nicols celebra su aniversario con los mejores precios del año
-
Newswire3 díasVAPORESSO apoya el movimiento orientado a las personas para acercar el mundo mediante iniciativas culturales con motivo de su décimo aniversario
-
Mundo Política3 díasBustinduy ve “curiosa” la “forma de patriotismo” de Feijóo criticando a España en Bruselas: “Quien mejor le contesta es el FMI”
-
Mundo Política3 díasEl PSOE pide una respuesta común con la UE para hacer frente a los aranceles de Trump al sector audiovisual
