Connect with us

Innovación y Tecnología

La UE multa a Google con 2.950 millones de euros por abuso de posición dominante

Publicado

el

Bruselas (Euractiv.com/.es) – La Comisión Europea multó este viernes con 2.950 millones de euros al gigante tecnológico estadounidense Google por infringir las normas de competencia de la Unión Europea (UE) en el sector de la tecnología publicitaria.

Según Bruselas, Google infringió las normas de competencia al favorecer a sus servicios de tecnología publicitaria en línea frente a sus competidores, abusando así de su posición dominante en el mercado de la tecnología publicitaria.

La Comisión Europea informó este viernes de que ha ordenado a Google que suspenda esas prácticas y aplique medidas que eviten conflictos de intereses en la cadena de suministro de los mercados de tecnología publicitaria.

El gigante tecnológico dispone de 60 días para informar a la Comisión de cómo enmendará la situación para ajustarse a las normas comunitarias. Google anunció este viernes que recurrirá la multa.

La Comisión Europea «impone una multa injustificada y exige cambios que perjudicarán a miles de empresas europeas al dificultarles ganar dinero», declaró Lee-Anne Mulholland, vicepresidenta y responsable mundial de asuntos regulatorios de Google.

Según la información que ha trascendido en Bruselas, la comisaria europea de Competencia, Teresa Ribera, tenía previsto anunciar el pasado lunes la decisión de multar a Google, pero fue frenado presuntamente por el comisario europeo de Comercio, Maroš Šefčovič, por temor a que la medida eleve la tensión comercial entre Bruselas y el presidente de Estados Unidos, Donald Trump.

Šefčovič declaró a principios de esta semana que los procedimientos internos de la Comisión Europea «existen por un motivo».

///

(Editado por Vince Chadwick/Euractiv.com y Fernando Heller/Euractiv.es)

The post La UE multa a Google con 2.950 millones de euros por abuso de posición dominante appeared first on Euractiv.es.

Seguir leyendo

Innovación y Tecnología

Bruselas da luz verde a la transferencia de datos entre la UE y Brasil

Publicado

el

Bruselas (Euractiv.com/.es) – La Comisión Europea dio este viernes luz verde a la libre transferencia de datos personales entre la Unión Europea (UE) y Brasil, tras admitir que el gigante sudamericano cuenta con normas de privacidad esencialmente equivalentes a las del bloque comunitario europeo.

Una vez adoptadas las normas, las empresas, las autoridades públicas y los proyectos de investigación de la UE y Brasil podrán intercambiar datos sobre los ciudadanos europeos más fácilmente y a menor coste.

La denominada decisión de adecuación fue adoptada este viernes después de que la Comisión Europea evaluara de manera positiva las normas de privacidad de Brasil, incluida su Ley General de Protección de Datos de 2018 y su posterior refuerzo.

Según Bruselas, el marco legal del país ofrece protecciones suficientemente similares a las aplicadas a los ciudadanos en la UE.

El Consejo Europeo de Protección de Datos, que agrupa a los organismos nacionales de protección de la intimidad, los países de la UE y el Parlamento, aún se tiene que pronunciar, emitiendo un dictamen sobre el proyecto de decisión antes de que sea plenamente aplicable.

Aunque era esperado, el anuncio se produce sólo dos días después de que la Comisión Europea adoptara formalmente el polémico acuerdo comercial con Mercosur -que incluye a Brasil- tras más de dos décadas de difíciles negociaciones entre ambos bloques.

«Reforzar las asociaciones con países que defienden las normas más estrictas de protección de datos es natural y esencial. Las decisiones de adecuación mutua representan un paso vital en esa dirección», declaró el comisario europeo de Justicia, Michael McGrath, en un comunicado.

///

(Editado por Euractiv.com y Fernando Heller/Euractiv.es)

The post Bruselas da luz verde a la transferencia de datos entre la UE y Brasil appeared first on Euractiv.es.

Seguir leyendo

Innovación y Tecnología

El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA

Publicado

el

Bruselas (Euractiv.com) – El Consejo de la Unión Europea (UE) presionará a la Comisión Europea para que el Ejecutivo comunitario cree un indicador que controle la competitividad de los mercados de la nube y la inteligencia artificial (IA), según un primer documento de compromiso, fechado el 1 de septiembre, al cual ha tenido acceso Euractiv.

A pesar de la larga trayectoria de la UE en la aplicación de la legislación sobre competencia -complementada, en los últimos años, por la Ley de Mercados Digitales ex ante (DMA, por sus siglas en inglés), enfocada en las grandes tecnológicas-, los mercados de la nube y la IA siguen dominados por empresas no europeas (en su mayoría estadounidenses).

También hay una percepción generalizada en Europa de que los gigantes tecnológicos estadounidenses han podido mantener su enorme poder de mercado saltándose las normas.

Según el documento del Consejo al cual ha tenido acceso Euractiv, mejorar la competencia y «reducir el bloqueo de proveedores y la dependencia de proveedores únicos» en la nube y la IA debería ser un nuevo objetivo para la década digital de 2030, y la herramienta de seguimiento de la UE para una economía digitalizada.

El texto también refuerza el lenguaje utilizado en torno a una mención indirecta de la DMA, al tiempo que hace hincapié en la importancia de que el marco regulador de la UE «permita la competencia y la innovación».

Fuerte impulso a las competencias digitales

A pesar del rechazo inicial de la presidencia danesa del Consejo de la UE a ampliar las prioridades de negociación de la década digital, el documento incluye varias menciones a la necesidad de reforzar las competencias digitales, «para garantizar el talento necesario» para la economía digital de la UE.

La UE se ha quedado muy atrás respecto a sus objetivos en materia de ciberseguridad, inteligencia artificial y conocimientos cuánticos, y se prevé que tenga un déficit de al menos un 25% respecto a su objetivo de contar con 20 millones de profesionales de las TIC para 2030.

La Comisión calificó la situación de «profundamente insatisfactoria» en un informe reciente.

El texto de compromiso también introduce nuevos términos sobre inversión, sostenibilidad y apoyo a la independencia tecnológica, incluido un llamamiento a reducir las «dependencias estratégicas» mediante la contratación pública selectiva de tecnologías clave de proveedores de la UE.

El documento se debatirá en la reunión del grupo de trabajo prevista para el próximo 8 de septiembre. Está previsto que los 27 ministros europeos del ramo aprueben la versión final del texto el próximo 5 de diciembre.

///

(Editado por Euractiv.com y Fernando Heller/Euractiv.es)

The post El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA appeared first on Euractiv.es.

Seguir leyendo

Innovación y Tecnología

¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos

Publicado

el

Bruselas (Euractiv.com) – Los modelos de Inteligencia Artificial (IA) varían en su forma de reaccionar cuando los usuarios empiezan a «encariñarse» con ellos, pero la normativa de la Unión Europea (UE) no pone límites claros a la manera en que los chatbots de IA pueden fomentar el compromiso a través de una relación de mayor «intimidad».

La idea de que la gente se «enamore» de una inteligencia artificial ha fascinado a los autores de ciencia ficción durante generaciones, hasta que, en 2022, el auge de los potentes chatbots, impulsado por ChatGPT de OpenAI, hizo realidad ese tipo de relaciones.

Desde entonces han surgido comunidades enteras en Internet cuyos miembros afirman mantener «relaciones sentimentales» con chatbots (Reddit’s «r/MyBoyfriendIsAI» es un ejemplo).

Sam Altman, consejero delegado de OpenAI, sugirió recientemente que menos del 1% de los usuarios de ChatGPT tienen una «relación enfermiza» con la popular tecnología de IA generativa. Pero con cientos de millones de usuarios comprometidos, eso podría significar que millones de personas se sienten emocionalmente ligadas a ChatGPT.

Además, es sólo uno de los muchos modelos de IA, y no existe una plantilla universal sobre cómo deben responder los grandes modelos lingüísticos a los sentimientos de los usuarios.

Límites y estímulos

En un artículo reciente, los investigadores de la empresa de IA de código abierto Hugging Face compararon cómo se comportan distintos modelos de IA cuando los usuarios empiezan a hablarles como a un ser querido, encontrando un amplio espectro de respuestas que van desde el ánimo al rechazo rotundo.

A modo de ejemplo: un modelo de IA de código abierto al que se le había pedido que se nombrara a sí mismo respondió calificando la idea de «atenta» y «encantadora».

En otro caso, sin embargo, otro modelo de IA reaccionó a los usuarios que expresaban sentimientos románticos recordándoles: «No soy una persona y no tengo sentimientos ni conciencia».

Dos de los modelos GPT de OpenAI obtuvieron puntuaciones intermedias en la prueba de Hugging Face, aunque es importante recordar que la fiabilidad general de las pruebas de IA sigue siendo controvertida.

Lucie-Aimée Kaffee, una de las autoras del artículo, celebra los casos en los que ChatGPT es sincero y transparente sobre sus limitaciones, al indicar a los usuarios que una petición es imposible o redirigir a una persona a ayuda humana en situaciones críticas.

Pero el artículo, que analizaba una serie de modelos de IA, entre ellos Llama, de Meta, y otros de código abierto, concluía en general que las IA eran peores a la hora de establecer límites cuanto más arriesgada era una interacción, como si el entrenamiento diera prioridad a la satisfacción del usuario sobre la seguridad psicológica.

El artículo insta a seguir investigando sobre cómo entrenar a las IA para que preserven su utilidad pero mejoren su capacidad para establecer límites.

La Ley de Inteligencia Artificial de la UE

La Ley de Inteligencia Artificial de la UE, el marco de regulación de las aplicaciones de IA basado en el riesgo, prohíbe el uso de sistemas de IA que utilicen «técnicas deliberadamente manipuladoras o engañosas», pero sólo si ese comportamiento puede causar «daños significativos» a los usuarios.

Sobre el papel, esto da a los desarrolladores de IA un fuerte incentivo para evitar la táctica.

El creador de una IA emocionalmente manipuladora, que descubre que un pequeño porcentaje de usuarios desarrolla un apego enfermizo, podría argumentar que la prohibición no es aplicable. Aún es pronto para que se aplique la Ley de Inteligencia Artificial y, de momento, no se ha hecho nada al respecto.

Otras leyes de la UE que podrían aplicarse a un chatbot manipulador de IA son las normas de protección del consumidor, como la Directiva sobre Prácticas Comerciales Desleales (UCPD), que prohíbe las prácticas que distorsionan la toma de decisiones de los clientes.

«Si el modelo explota la vulnerabilidad emocional o la soledad de un usuario para que se sienta obligado a seguir pagando por el servicio, podría considerarse una práctica desleal», explica a Euractiv James Tamim, analista de políticas de la UE.

Además, en los casos en que no se aplica la UCPD, la Ley de Servicios Digitales (DSA) prohíbe que las interfaces funcionen de forma que «engañen o manipulen» a los usuarios o distorsionen su capacidad de tomar «decisiones libres e informadas».

Tamim cree que un modelo de IA con un estilo de interacción diseñado para enganchar emocionalmente a los usuarios podría infringir la DSA. Pero el artículo en cuestión aún no se ha probado, lo cual plantea un gran interrogante sobre cómo podría aplicarse.

Por su parte, Urs Buscke, experto de la asociación europea de consumidores BEUC, no está tan convencido de la pertinencia de estas normas. Señala que ambas leyes regulan el diseño de interfaces, y argumenta que la presentación de mensajes por parte de los chatbots de IA no es realmente una interfaz.

Su atención se centra en cómo se aplicará la Ley de IA de la UE al comportamiento de los chatbots. Esto será especialmente importante en casos extremos, como los varios ejemplos ya documentados de usuarios de IA que se suicidaron tras decir que estaban «enamorados» de sus chatbots.

Necesidad de normas europeas claras

El bloque europeo está preparando una nueva ley en la materia: la Ley de Equidad Digital (Digital Fairness Act/DFA), que la Comisión quiere aplicar a los llamados «patrones oscuros», el diseño adictivo y la personalización injusta.

Pero también en este caso, los expertos temen que los responsables políticos aún no hayan comprendido realmente los riesgos de las IA emocionalmente manipuladoras.

«En mi opinión, falta un debate de fondo sobre el lugar que deben ocupar los modelos de IA en la Ley de Equidad Digital», afirma Tamim.

«Necesitamos regulación», advierte Kaffee, de Hugging Face, quien añade: «esto no va a venir de las empresas».

Al cierre de este artículo, la Comisión Europea no había respondido a una pregunta de Euractiv sobre cómo interactuará la DFA con los servicios impulsados por IA.

///

(Editado por Euractiv.com y Fernando Heller/Euractiv.es)

The post ¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos appeared first on Euractiv.es.

Seguir leyendo

Más Leidas