Innovación y Tecnología
Código de buenas prácticas de la IA: la tarea imposible de contentar a 1.000 grupos de presión

«Esperamos que la gente reconozca que sus aportaciones han dado resultado» y que el borrador «está en condiciones de ser aceptado», añadió, en referencia a las numerosas modificaciones aplicadas al texto.
Los grupos de presión no han tardado en criticar el proyecto.
Descontento
El tercer borrador «sigue suscitando importantes inquietudes», afirma Boniface de Champris, responsable de políticas del grupo de presión de las grandes tecnológicas CCIA Europe.
«Es descorazonador ver hasta qué punto se ha suavizado el código para apaciguar a la industria tecnológica«, comenta Nick Moës, director ejecutivo de la ONG The Future Society, una empresa experta en temas de seguridad.
«El código de buenas prácticas se ha rebajado mucho desde el punto de vista de los derechos fundamentales», asegura Laura Lázaro Cabrera, Consejera y Directora del Programa de Equidad y Datos del Centro para la Democracia y la Tecnología.
«El tercer borrador dista mucho de ser adecuado para proteger a la industria creativa y a los periodistas», afirma Hanna Möllers, asesora jurídica y directora general adjunta de la Asociación Alemana de Periodistas DJV.
Los grupos de presión tecnológicos han conseguido una serie de concesiones en comparación con los borradores anteriores, pero siguen quejándose por varios motivos.
Problemas de «copyright»
Los firmantes del código ya no están obligados a publicar un resumen de su política de derechos de autor ni a realizar la diligencia debida en materia de derechos de autor cuando adquieran conjuntos de datos de terceros.
Los requisitos «se han suavizado aún más, lo que aumenta los riesgos para nuestro sector», explica a Euractiv Burak Özgen, Director General Adjunto de las Sociedades Europeas de Autores.
No hay nada en el código que garantice la autorización previa para el uso de contenidos protegidos por derechos de autor, un requisito básico de la legislación sobre derechos de autor, añade Özgen.
Las «obligaciones de gran alcance» del código en materia de derechos de autor y transparencia podrían poner en peligro los secretos comerciales, afirma de Champris.
«La sección sobre derechos de autor seguiría obligando a los proveedores de modelos a privar a los ciudadanos de la UE de su derecho a la libre expresión y la libertad artística», comenta a Euractiv Tomasz Snażyk, director general de AI Chamber, una agrupación polaca de IA.
Los cuatro responsables de los temas de derechos de autor y transparencia no respondieron a la solicitud de comentarios de Euractiv.
Riesgo de discriminación
En el nuevo borrador, los riesgos de discriminación se eliminan de la taxonomía principal, dejando sólo los riesgos cibernéticos, riesgos de terrorismo químico, biológico, radiológico y nuclear (QBRN), de manipulación y de «pérdida de control».
«No hay forma de demostrar una diligencia debida significativa para esos riesgos», se lee en una entrada de blog de Hugging Face, donde se afirma que, riesgos cibernéticos aparte, su naturaleza especulativa presenta un «desafío imposible» para los desarrolladores«abiertos».
En vísperas de la publicación, las ONG de defensa de los derechos de autor amenazaron con retirarse del proceso de redacción, alegando que no se incluyeron sus puntos de vista y que se omitieron derechos fundamentales en el código.
«Hemos insistido en cada ronda de comentarios en la importancia de preservar e impedir el riesgo de discriminación», así como de incluir otros riesgos de derechos fundamentales, asegura Cabrera.
Según Schaake, el Código no puede abordarlo todo. Está limitado por la redacción de la Ley de AI.
«El primer considerando de la Ley de AI de la UE deja claro que la preservación de los derechos fundamentales es uno de sus principales objetivos», explica a Euractiv Sarah Andrew, directora jurídica y de campañas de la ONG Avaaz.
«Hay muchos riesgos para los derechos fundamentales a nivel de sistema/aplicación», comenta a Euractiv Matthias Samwald, presidente responsable de la taxonomía de riesgos.
En opinión del experto, esos riesgos se mitigan mejor con las regulaciones existentes,entre ellos el GDPR, DSA y DMA. No obstante, señala que los firmantes del código se comprometen a identificar los riesgos sistémicos para los derechos fundamentales.
Auditorías y denunciantes
La Ley de IA exige auditorías externas «según proceda», por lo que los expertos responsables las establecen como obligatorias sólo cuando un modelo sea suficientemente diferente de otro ya existente en el mercado, o cuando el proveedor no tenga los conocimientos adecuados para llevar a cabo sus propias pruebas.
Por otra parte, han adoptado un planteamiento más flexible y orientado a los resultados en materia de prácticas de seguridad y simplificaron la protección de los denunciantes, remitiéndose en su lugar a la Directiva general de la UE sobre denunciantes.
Las «onerosas evaluaciones externas de riesgos » siguen siendo un grave problema, lamenta de Champris, al tiempo que sostiene que la medida va más allá del texto legal.
El requisito de auditoría «contiene varias exenciones y condiciones que ofrecen lagunas potenciales que las empresas pueden explotar para evitar el escrutinio independiente», comenta en un comunicado Risto Uuk, responsable de política e investigación de la UE en la ONG Future of Life Institute, experta en seguridad.
Uuk se muestra decepcionado por la «reducida» protección de los denunciantes. «Al remitirse a la incoherente aplicación de la Directiva de la UE sobre la denuncia de irregularidades, el código no armoniza estas salvaguardias fundamentales en todos los Estados miembros», afirma.
«Las disposiciones sobre denuncia de irregularidades no se han debilitado», comenta Schaake. El tercer borrador es similar al segundo, pero «resume las obligaciones pertinentes de forma más sucinta», subraya.
¿A quién va dirigido?
Los responsables (denominados «presidentes») aseguran que han redactado el código partiendo del supuesto de que sólo entre 5 y 15 empresas producirían, en un momento dado, modelos de «riesgo sistémico» que entrarían en el ámbito de aplicación de la mayoría de las obligaciones del código.
«No compartimos esta perspectiva, ya que cada vez vemos equipos más pequeños y centrados en el desarrollo de sistemas con prestaciones de vanguardia», se lee en un post de Hugging Face.
Al no distinguir entre desarrollo abierto y cerrado, el marco corre el riesgo de quedar rápidamente obsoleto, o de concentrar la tecnología en las pocas manos que pueden gestionar todos los costes del cumplimiento, añade.
El código está «muy orientado», y los costes de cumplimiento representan «sólo una pequeña fracción del coste informático necesario para entrenar cualquier modelo captado por el umbral informático existente», comenta Gaia Marcus, directora del Instituto Ada Lovelace.
El propósito del código es «ayudar a las empresas a cumplir las obligaciones establecidas en la Ley de IA , no crear normas y cargas totalmente nuevas«, lamenta de Chambris.
Por su parte, Marcus lamenta que el código agregue nuevas prácticas en lugar de mejorarlas.
«Por ahora, el código funcionará más como una útil herramienta de cumplimiento para las empresas que como un medio para elevar con fuerza el listón de la seguridad», afirma.
Indicadores clave de rendimiento
Por otro lado, se cuestiona un cambio estructural fundamental del código.
«En general, la eliminación de los Indicadores Clave de Rendimiento (KPI, por sus siglas en inglés) ha dado buenos resultados «, asegura Tomasz Snażyk, experto de una agrupación industrial polaca especializada en IA.
Por su parte, Simeon Campos, director general de la ONG SaferAI, explica a Euractiv que parece difícil garantizar el cumplimiento sin los KPI.
«Dado que el Código de Buenas Prácticas establece una presunción de conformidad, es de suma importancia que los responsables de la IA en la UE dispongan de toda la información que necesita», afirma.
Con la reformulación se quiere que el código sea jurídicamente sólido y fácil de utilizar, agrega Schaake.
La tarjeta de competitividad
Con prisas por ponerse al día en la carrera mundial de la IA, la Comisión Europea ha dejado muy claro que su prioridad es la simplificación normativa que potencie la competitividad.
Los grupos de presión especulan con la posibilidad de que el retraso del tercer borrador pueder estar provocado por los desacuerdos entre Bruselas y los presidentes. No obstante, Schaake niega ese extremo y lo atribuye únicamente a la complejidad del borrador. En su opinión, la Comisión Europea es una de las partes interesadas que contribuye al proceso.
«Hasta ahora hemos podido desempeñar perfectamente nuestro papel de forma independiente. No tengo motivos para creer que eso vaya a cambiar», comenta Schaake.
Sin embargo, el sector ha redoblado la presión a Bruselas
«En su forma actual, el código corre el riesgo de socavar directamente la competitividad digital de la UE«, alerta de Chambris.
Por su parte, fuentes de Google aseguran que aguardan con interés la revisión del borrador, al tiempo que alertan de que un código estricto podría limitar el acceso de Europa a la tecnología de vanguardia.
«Los ciudadanos europeos deben poder acceder a modelos de inteligencia artificial seguros y de primera calidad cuando estén disponibles, y a un entorno que fomente la innovación y la inversión», asegura el gigante tecnológico estadounidense en un reciente comunicado de prensa.
Los presidentes afirman estar «totalmente abiertos» a recibir comentarios y han organizado talleres específicos con la sociedad civil y los usuarios finales, además de los talleres habituales para proveedores de GPAI.
Cuando se presentan buenos argumentos, «los sopesamos (con vistas a la redacción del texto), sea cual sea su fuente», subraya Schaake.
El pasado 4 de marzo, en el marco de una conferencia en Bruselas, Gary Marcus, que mantiene una postura muy critica con la IA, dejó claro lo que está en juego en los esfuerzos reguladores europeos.
«Ustedes son nuestra última esperanza: Que Dios os acompañe», comentó.
///
[Editado por DE/Euractiv.com y Fernando Heller/Euractiv.es]
The post Código de buenas prácticas de la IA: la tarea imposible de contentar a 1.000 grupos de presión appeared first on Euractiv.es.
Innovación y Tecnología
El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA

Bruselas (Euractiv.com) – El Consejo de la Unión Europea (UE) presionará a la Comisión Europea para que el Ejecutivo comunitario cree un indicador que controle la competitividad de los mercados de la nube y la inteligencia artificial (IA), según un primer documento de compromiso, fechado el 1 de septiembre, al cual ha tenido acceso Euractiv.
A pesar de la larga trayectoria de la UE en la aplicación de la legislación sobre competencia -complementada, en los últimos años, por la Ley de Mercados Digitales ex ante (DMA, por sus siglas en inglés), enfocada en las grandes tecnológicas-, los mercados de la nube y la IA siguen dominados por empresas no europeas (en su mayoría estadounidenses).
También hay una percepción generalizada en Europa de que los gigantes tecnológicos estadounidenses han podido mantener su enorme poder de mercado saltándose las normas.
Según el documento del Consejo al cual ha tenido acceso Euractiv, mejorar la competencia y «reducir el bloqueo de proveedores y la dependencia de proveedores únicos» en la nube y la IA debería ser un nuevo objetivo para la década digital de 2030, y la herramienta de seguimiento de la UE para una economía digitalizada.
El texto también refuerza el lenguaje utilizado en torno a una mención indirecta de la DMA, al tiempo que hace hincapié en la importancia de que el marco regulador de la UE «permita la competencia y la innovación».
Fuerte impulso a las competencias digitales
A pesar del rechazo inicial de la presidencia danesa del Consejo de la UE a ampliar las prioridades de negociación de la década digital, el documento incluye varias menciones a la necesidad de reforzar las competencias digitales, «para garantizar el talento necesario» para la economía digital de la UE.
La UE se ha quedado muy atrás respecto a sus objetivos en materia de ciberseguridad, inteligencia artificial y conocimientos cuánticos, y se prevé que tenga un déficit de al menos un 25% respecto a su objetivo de contar con 20 millones de profesionales de las TIC para 2030.
La Comisión calificó la situación de «profundamente insatisfactoria» en un informe reciente.
El texto de compromiso también introduce nuevos términos sobre inversión, sostenibilidad y apoyo a la independencia tecnológica, incluido un llamamiento a reducir las «dependencias estratégicas» mediante la contratación pública selectiva de tecnologías clave de proveedores de la UE.
El documento se debatirá en la reunión del grupo de trabajo prevista para el próximo 8 de septiembre. Está previsto que los 27 ministros europeos del ramo aprueben la versión final del texto el próximo 5 de diciembre.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post El Consejo pedirá a la UE que vigile la competitividad de la nube y la IA appeared first on Euractiv.es.
Innovación y Tecnología
¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos

Bruselas (Euractiv.com) – Los modelos de Inteligencia Artificial (IA) varían en su forma de reaccionar cuando los usuarios empiezan a «encariñarse» con ellos, pero la normativa de la Unión Europea (UE) no pone límites claros a la manera en que los chatbots de IA pueden fomentar el compromiso a través de una relación de mayor «intimidad».
La idea de que la gente se «enamore» de una inteligencia artificial ha fascinado a los autores de ciencia ficción durante generaciones, hasta que, en 2022, el auge de los potentes chatbots, impulsado por ChatGPT de OpenAI, hizo realidad ese tipo de relaciones.
Desde entonces han surgido comunidades enteras en Internet cuyos miembros afirman mantener «relaciones sentimentales» con chatbots (Reddit’s «r/MyBoyfriendIsAI» es un ejemplo).
Sam Altman, consejero delegado de OpenAI, sugirió recientemente que menos del 1% de los usuarios de ChatGPT tienen una «relación enfermiza» con la popular tecnología de IA generativa. Pero con cientos de millones de usuarios comprometidos, eso podría significar que millones de personas se sienten emocionalmente ligadas a ChatGPT.
Además, es sólo uno de los muchos modelos de IA, y no existe una plantilla universal sobre cómo deben responder los grandes modelos lingüísticos a los sentimientos de los usuarios.
Límites y estímulos
En un artículo reciente, los investigadores de la empresa de IA de código abierto Hugging Face compararon cómo se comportan distintos modelos de IA cuando los usuarios empiezan a hablarles como a un ser querido, encontrando un amplio espectro de respuestas que van desde el ánimo al rechazo rotundo.
A modo de ejemplo: un modelo de IA de código abierto al que se le había pedido que se nombrara a sí mismo respondió calificando la idea de «atenta» y «encantadora».
En otro caso, sin embargo, otro modelo de IA reaccionó a los usuarios que expresaban sentimientos románticos recordándoles: «No soy una persona y no tengo sentimientos ni conciencia».
Dos de los modelos GPT de OpenAI obtuvieron puntuaciones intermedias en la prueba de Hugging Face, aunque es importante recordar que la fiabilidad general de las pruebas de IA sigue siendo controvertida.
Lucie-Aimée Kaffee, una de las autoras del artículo, celebra los casos en los que ChatGPT es sincero y transparente sobre sus limitaciones, al indicar a los usuarios que una petición es imposible o redirigir a una persona a ayuda humana en situaciones críticas.
Pero el artículo, que analizaba una serie de modelos de IA, entre ellos Llama, de Meta, y otros de código abierto, concluía en general que las IA eran peores a la hora de establecer límites cuanto más arriesgada era una interacción, como si el entrenamiento diera prioridad a la satisfacción del usuario sobre la seguridad psicológica.
El artículo insta a seguir investigando sobre cómo entrenar a las IA para que preserven su utilidad pero mejoren su capacidad para establecer límites.
La Ley de Inteligencia Artificial de la UE
La Ley de Inteligencia Artificial de la UE, el marco de regulación de las aplicaciones de IA basado en el riesgo, prohíbe el uso de sistemas de IA que utilicen «técnicas deliberadamente manipuladoras o engañosas», pero sólo si ese comportamiento puede causar «daños significativos» a los usuarios.
Sobre el papel, esto da a los desarrolladores de IA un fuerte incentivo para evitar la táctica.
El creador de una IA emocionalmente manipuladora, que descubre que un pequeño porcentaje de usuarios desarrolla un apego enfermizo, podría argumentar que la prohibición no es aplicable. Aún es pronto para que se aplique la Ley de Inteligencia Artificial y, de momento, no se ha hecho nada al respecto.
Otras leyes de la UE que podrían aplicarse a un chatbot manipulador de IA son las normas de protección del consumidor, como la Directiva sobre Prácticas Comerciales Desleales (UCPD), que prohíbe las prácticas que distorsionan la toma de decisiones de los clientes.
«Si el modelo explota la vulnerabilidad emocional o la soledad de un usuario para que se sienta obligado a seguir pagando por el servicio, podría considerarse una práctica desleal», explica a Euractiv James Tamim, analista de políticas de la UE.
Además, en los casos en que no se aplica la UCPD, la Ley de Servicios Digitales (DSA) prohíbe que las interfaces funcionen de forma que «engañen o manipulen» a los usuarios o distorsionen su capacidad de tomar «decisiones libres e informadas».
Tamim cree que un modelo de IA con un estilo de interacción diseñado para enganchar emocionalmente a los usuarios podría infringir la DSA. Pero el artículo en cuestión aún no se ha probado, lo cual plantea un gran interrogante sobre cómo podría aplicarse.
Por su parte, Urs Buscke, experto de la asociación europea de consumidores BEUC, no está tan convencido de la pertinencia de estas normas. Señala que ambas leyes regulan el diseño de interfaces, y argumenta que la presentación de mensajes por parte de los chatbots de IA no es realmente una interfaz.
Su atención se centra en cómo se aplicará la Ley de IA de la UE al comportamiento de los chatbots. Esto será especialmente importante en casos extremos, como los varios ejemplos ya documentados de usuarios de IA que se suicidaron tras decir que estaban «enamorados» de sus chatbots.
Necesidad de normas europeas claras
El bloque europeo está preparando una nueva ley en la materia: la Ley de Equidad Digital (Digital Fairness Act/DFA), que la Comisión quiere aplicar a los llamados «patrones oscuros», el diseño adictivo y la personalización injusta.
Pero también en este caso, los expertos temen que los responsables políticos aún no hayan comprendido realmente los riesgos de las IA emocionalmente manipuladoras.
«En mi opinión, falta un debate de fondo sobre el lugar que deben ocupar los modelos de IA en la Ley de Equidad Digital», afirma Tamim.
«Necesitamos regulación», advierte Kaffee, de Hugging Face, quien añade: «esto no va a venir de las empresas».
Al cierre de este artículo, la Comisión Europea no había respondido a una pregunta de Euractiv sobre cómo interactuará la DFA con los servicios impulsados por IA.
///
(Editado por Euractiv.com y Fernando Heller/Euractiv.es)
The post ¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos appeared first on Euractiv.es.
Innovación y Tecnología
De IRIS² a Starlink: ¿cuáls son las megaconstelaciones de satélites?

Bruselas (Euractiv.com) – Puede que todas emitan servicios de Internet desde el espacio, pero equiparar los servicios por satélite de empresas como Starlink, propiedad de Elon Musk, OneWeb, de origen franco-británico, o IRIS², de la Unión Europea (UE), es como comparar una cadena de moda rápida, una tienda de ropa vintage y una boutique de lujo.
Las megaconstelaciones -que pueden estar formadas por cientos o incluso miles de satélites- son una fuente cada vez más viable de conectividad en todo el mundo, especialmente en zonas remotas o poco pobladas.
Al mismo tiempo, los servicios de Internet por satélite en Europa -como la futura red IRIS² y la permanente OneWeb- suelen compararse, erróneamente, con el Starlink de Musk.
En los últimos años, la guerra de Ucrania también ha puesto de relieve la importancia de la conectividad espacial en regiones afectadas por conflictos, lo que subraya la relevancia geopolítica de las megaconstelaciones.
Los satélites de banda ancha rara vez funcionan a pleno rendimiento, ya que la mayor parte de la población mundial vive en una pequeña fracción de la superficie terrestre, lo que significa que los satélites operan con frecuencia sobre zonas deshabitadas.
Aunque los operadores pueden compensar la infrautilización mediante estrategias como la cobertura selectiva, los contratos empresariales y la concentración en zonas con gran demanda de banda ancha rural o remota.
El resultado es un abanico de operadores más amplio de lo que cabría imaginar.
Starlink y Kuiper: las «cadenas de moda rápida»
Las estadounidenses Starlink y Kuiper son el equivalente espacial de las cadenas de moda rápida: su modelo de negocio se basa en lanzar muchos satélites de bajo coste para conseguir una presencia global.
La constelación de Starlink cuenta con más de 8.000 satélites en servicio, mientras que la de Kuiper es mucho más dispersa y sólo cuenta con algo más de 100 satélites en la actualidad.
Ambos sistemas de satélites tienen una vida útil de entre cinco y siete años antes de quemarse al reentrar en la atmósfera terrestre, por lo cual hay que seguir lanzando satélites para mantener las constelaciones, lo que resulta muy costoso.
Starlink reduce costes gracias a la integración vertical de SpaceX, que diseña y fabrica los satélites internamente y los lanza con su cohete Falcon 9 reutilizable. Kuiper, filial del gigante estadounidense del comercio electrónico Amazon, trata de lograr economías de escala similares construyendo sus propios satélites, con el objetivo de su empresa matriz de impulsar el acceso a la banda ancha para impulsar el crecimiento de su mercado en línea.
Kuiper depende de proveedores de lanzamiento externos, entre los que se encuentran, hasta ahora, Arianespace, ULA y SpaceX. De cara al futuro, los costes de lanzamiento podrían reducirse significativamente una vez que Blue Origin -la empresa espacial privada de Jeff Bezos- consiga hacer reutilizable su cohete New Glenn.
Pero a pesar de la conexión con el fundador de Amazon, Blue Origin y Kuiper siguen siendo empresas separadas, a diferencia del modelo de integración vertical de SpaceX-Starlink.
Según señaló Antoine Lebourgeois, analista de la empresa financiera Stifel, en un informe de mercado publicado en junio de 2024, Starlink y Kuiper «están a punto de convertirse en un duopolio gracias a su escala y ventajas competitivas sin parangón».
Sin embargo, la viabilidad económica no está clara, según Pierre Lionnet, veterano director de investigación del lobby espacial ASD-Eurospace, que pone en duda la rentabilidad a largo plazo de Starlink. La estrategia de Musk de añadir continuamente satélites para aumentar la velocidad en zonas congestionadas no es sostenible, argumenta, al tiempo que señala que los costes de lanzamiento siguen siendo fijos.
La rentabilidad de Kuiper es aún más incierta porque depende de cohetes de terceros para los lanzamientos, según explica Lionnet a Euractiv. El experto vaticina que no podrá igualar las tarifas de suscripción más bajas de Starlink sin incurrir en pérdidas significativas.
Starlink y Kuiper parecen decididos a hacerse con una gran cuota de mercado a cualquier precio, incluso desde el punto de vista medioambiental. Aunque los cohetes reutilizables son más sostenibles que los de un solo uso, el funcionamiento de enormes constelaciones que requieren lanzamientos continuos genera una importante huella de CO2.
Eutelsat, SES, Viasat: las «tiendas de época»
SES (Luxemburgo), Eutelsat (Francia-Reino Unido) y Viasat (EE.UU.) son operadores de satélites tradicionales que se enfrentan a la disminución de los ingresos procedentes de los satélites geoestacionarios (GEO) que orbitan a 36.000 km. En respuesta, se están orientando hacia los servicios de Internet por satélite, normalmente dirigidos a nichos de mercado como la aviación, el transporte marítimo, la administración pública y la conectividad rural.
El trío tiene dificultades para competir con constelaciones estadounidenses de órbita terrestre baja (LEO) como Starlink y Kuiper, que operan por debajo de los 1.500 km y ofrecen una latencia mucho menor y velocidades más rápidas. Sólo Eutelsat, a través de OneWeb, está presente en LEO con una flota de 600 satélites.
Sin embargo, OneWeb no se beneficia de las economías de escala de que disfrutan los competidores estadounidenses: sus satélites y terminales son fabricados por proveedores externos. Además, Eutelsat no está desarrollando su propio lanzador reutilizable, por lo que no puede competir con Starlink y Kuiper en precio.
A pesar de sus costes significativamente más elevados y de sus terminales más grandes y menos portátiles, OneWeb es visto por las autoridades europeas como un posible respaldo a Starlink -para las operaciones militares de Ucrania- en medio de la creciente preocupación por los empeños políticos de Musk y sus declaraciones, que ponen de relieve los riesgos de la dependencia de Starlink. Pero OneWeb no puede igualar las velocidades de Starlink para los civiles, lo que limita su utilidad como sustituto de la infraestructura de telecomunicaciones dañada por los ataques rusos.
En general, el trío exhibe un aire de glorias pasadas ya que esas empresas de televisión por satélite, antaño populares, trabajan para reposicionarse y actualizar sus ofertas para una era dominada por Internet. Pero vender Internet por satélite con un atractivo nicho (y, esperan, económicamente sostenible) podría darles un nuevo caché, lo que les valdría la comparación con las tiendas vintage.
IRIS²: la «boutique de lujo» de la UE
IRIS² de la UE es un proyecto puntero de comunicaciones seguras por satélite, comparable a la Arquitectura Espacial de Guerra de Estados Unidos, el programa estadounidense para una red estratificada de satélites militares.
IRIS², que entrará en funcionamiento en 2030 con una flota de 290 satélites, está diseñado para proporcionar comunicaciones seguras a los Jefes de Estado, ministros, agencias de inteligencia y fuerzas militares de la UE. Si se tratara de una marca de moda de lujo, la colección inicial de IRIS² tendría mucho de militar chic.
Sin embargo, como suele ocurrir con las iniciativas de la UE, el alcance del proyecto se ha ampliado para incluir el suministro de conectividad a zonas remotas y permitir la comercialización mediante concesiones a operadores privados.
La UE también ha abierto IRIS² a socios afines: Está previsto que Islandia y Noruega se unan pronto. En ese sentido, el Comisario Europeo de Espacio , Andrius Kubilius, declaró recientemente a Euractiv que también daría la bienvenida al Reino Unido y Ucrania. Así pues, el proyecto está dejando de ser un club exclusivo de la UE.
Aun así, la comparación con el lujo refleja que IRIS² se centra en las comunicaciones seguras para los gobiernos. De ahí que recurra a equipos de última generación con funciones de futuro, como el cifrado poscuántico. Además, el enfoque multiconstelación de la megaconstelación se considera más sostenible, ya que reduce el riesgo de colisión entre satélites y aumenta la resistencia y la redundancia.
IRIS² es desarrollando por un consorcio de operadores de satélites europeos, entre ellos Eutelsat, SES e Hispasat, con participación en LEO, MEO e infraestructura terrestre. Al apoyarse en operadores europeos consolidados, el proyecto pone de relieve su carácter «made in Europe», al tiempo que pretende repartir los costes y mejorar los aspectos económicos.
«Esta constelación europea permite a los operadores europeos más pequeños contar con una infraestructura compartida, poner en común sus recursos y beneficiarse de economías de escala», explica Lebourgeois a Euractiv. «En mi opinión, es la única forma viable de que puedan competir contra gigantes como SpaceX y Amazon», agrega.
La futura constelación IRIS², con su énfasis en la tecnología militar de vanguardia -y la dependencia de los lanzadores soberanos (pero costosos) de Arianespace- tiene un precio elevado de 10.600 millones de euros, lo que merece la comparación con una boutique de lujo «made in Europe». Incluso cuando la creciente inestabilidad geopolítica implica que invertir en una nueva constelación soberana para unas comunicaciones europeas seguras no es un mero lujo.
///
(Editado por Victoria Becker/Euractiv.com y Fernando Heller/Euractiv.es)
The post De IRIS² a Starlink: ¿cuáls son las megaconstelaciones de satélites? appeared first on Euractiv.es.
-
¿Dónde Ir? ¿Qué ver y escuchar?3 días
FREE/MAN: la metamorfosis de Charlie Freeman entre música, cine y espiritualidad
-
Mundo Política3 días
Bruselas acusa al Kremlin de haber provocado interferencias en el GPS del avión en el que viajaba Von der Leyen
-
Ciencia y Salud3 días
El tratamiento para los infartos no ayuda a todos los pacientes y perjudica a las mujeres
-
Mundo Política3 días
Illa se reúne mañana con Puigdemont en Bruselas
-
Mundo Política2 días
Sánchez afirma que no hay «corrupción estructural» en el PSOE y critica que haya «jueces haciendo política»
-
Ciencia y Salud2 días
Manchas en la piel, cómo y cuándo eliminar las huellas del sol
-
Ciencia y Salud2 días
Prohibida en la UE una sustancia muy utilizada en esmaltes de uñas por ser tóxica
-
Ciencia y Salud2 días
La plaga del gusano barrenador acecha a los humanos