Etiqueta: IA

  • Alphabet recurre a deuda para acelerar su carrera en inteligencia artificial

    Alphabet recurre a deuda para acelerar su carrera en inteligencia artificial

    La deuda de Alphabet por 20 mil millones de dólares para financiar centros de datos y chips evidencía que el auge de la IA ya supera los flujos de efectivo tradicionales, elevando los riesgos financieros de la carrera tecnológica. 

    La matriz de Google, Alphabet, refuerza su apuesta por la inteligencia artificial al salir al mercado de deuda con 20 mil millones de dólares de financiamiento, una señal clara de que la carrera tecnológica ya no se sostiene sólo con utilidades. Busca inversiones en infraestructura para IA, como centros de datos y chips de alto desempeño. 


    Esta deuda confirma un quiebre con el modelo tradicional de las grandes tecnologías, que durante años financiaron su expansión. Actualmente el gasto en inteligencia artificial rebasa la capacidad de generación de efectividad a corto plazo, obligando a empresas como Alphabet a recurrir a capital externo para no ceder terreno frente a competidores directos. 

    La presión financiera calcula que Alphabet, Microsoft, Amazon y Meta Platforms designarán 630 mil millones de dólares durante el año a infraestructura de IA. El enfrentamiento  ha elevado costos así como beneficios que no se reflejan con claridad en resultados financieros.

    El desajuste ha comenzado a incomodar a los inversionistas, aunque la adopción de IA se presenta como estrategia,  incluso para empresas que ya  han añadido estas herramientas por lo que genera dudas sobre el sustento del ciclo de inversión actual

    Alphabet busca disolver la carga financiera con vencimientos de los bonos entre 2029 y 2066. La evolución podría incluir otro más  a 100 años, señalando el riesgo asumido, incluso para una firma con ingresos globales que se diversifican.

    El avance de manera acelerada de la inteligencia artificial se financia con deudas a gran escala. La emisión de 25 mil millones de dólares de Oracle y los 121 millones de dólares colocados por los proveedores de infraestructura de IA en Estados Unidos, refleja una competencia sostenida por estrategia a favor y no por resultados.

    La carrera tecnológica avanza con rapidez, mientras persiste el cuestionamiento si las ganancias llegarán a tiempo para compensar el riesgo financiero asumido y hasta qué punto las empresas podrán mantener el ritmo sin comprometer su estabilidad económica. 

  • ChatGPT escala a 800 millones de usuarios; redefine el pulso de la IA

    ChatGPT escala a 800 millones de usuarios; redefine el pulso de la IA

    Open AI reporta un nuevo repunte de crecimiento de su chatbot, al tiempo que prepara un modelo de chat actualizado, fortalece su negocio de codificación abriendo puerta a publicidad en Estados Unidos para financiar el alto costo de desarrollo tecnológico. 

    La organización de investigación y desarrollo de inteligencia artificial, OpenAI vuelve a definir ritmo en la industria de la inteligencia artificial, ya que ChatGPT alcanzó más de 800 millones de usuarios con actividad semanal superior al 10%, de acuerdo con un mensaje interno del presidente ejecutivo de la compañía, Sam Altman, difundido por CNBC.

    La empresa prevé poner en marcha un modelo de chat actualizado en el transcurso de la semana como estrategia dirigida a mantener la expansión de usuarios y responder  a una competencia cada vez más potente, aunque no ha habido información oficial por parte de OpenAI.

    El crecimiento de ChatGPT se produce en un contexto de disputa directa por cuota de mercado entre las grandes firmas de IA. Google ha reportado que su aplicación en Gemini superó los 750 millones de usuarios activos mensuales, mientras la base tecnológica y alta innovación aceleran su posicionamiento. 

    OpenAI ha confirmado que comenzará a incluir anuncios para usuarios en Estados Unidos, una decisión clave para obtener percepciones y financiar los costos elevados que implican el desarrollo y entrenamiento de modelos de IA de última generación.

    La expansión acelerada de ChatGPT también abre cuestionamientos, mientras OpenAI presume cifras récord, el cambio de rumbo hacia la publicidad dentro del chatbot expone la tensión entre innovación y rentabilidad.

    La necesidad de monetizar elevadamente plantea dudas sobre privacidad, uso de datos y calidad de la experiencia, en un mercado donde el liderazgo tecnológico no siempre va acompañado de reglas claras ni de una supervisión proporcional al impacto social de esta plataforma. 

  • La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    Por Nathael Pérez

    El auge de la inteligencia artificial (IA) no solo representa una revolución tecnológica, también viene acompañado de impactos ambientales crecientes que ya están chocando con comunidades locales y redes de recursos naturales. La infraestructura necesaria para entrenar y ejecutar modelos de IA consume cantidad extraordinaria de electricidad y agua.

    Consumo insaciable de electricidad y agua 

    Aunque solemos tener una imagen “virtual” o “invisible” de la IA, detrás de cada modelo hay un enorme aparato físico: centros de datos llenos de servidores que funcionan 24/7. Estos centros gigantes requieren gigavatios de energía eléctrica y millones de litros de agua para enfriarse y mantener temperaturas óptimas de operación.

    • A nivel global se proyecta que los centros de datos podrían triplicar su consumo de agua para 2027, superando los 6 mil 600 millones de metros cúbicos al año —más que el consumo anual de agua de Dinamarca entera—, solo para su refrigeración.
    • En Estados Unidos, los centros de datos consumieron unos 64 mil millones de litros en 2023, y se espera que esta cifra crezca significativamente.
    • Un centro de datos grande puede usar hasta 1.5 millones de litros de agua al día únicamente para enfriar sus sistemas.
    • En cuanto a electricidad, se estima que los centros de datos representan ya una proporción sustancial del consumo energético global y podrían duplicar su demanda hacia 2030.

    La razón de este voraz apetito por agua y energía radica en el propio funcionamiento de los servidores: el hardware genera mucho calor y sin sistemas de enfriamiento —que suelen usar agua— la operación se vuelve inestable.

    Comunidades locales ya están librando batallas reales

    Las tensiones entre la expansión de infraestructura para IA y las comunidades no se quedan en datos abstractos, pues ya hay casos en que pueblos y regiones han protestado o detenido proyectos por sus impactos ambientales:

    • Monterey Park, California (EUA): Un proyecto de centro de datos del tamaño de cuatro campos de fútbol fue frenado por un movimiento ciudadano que logró una moratoria de 45 días, preocupados por el estrés sobre la red eléctrica, aumentos de tarifas y preocupaciones ambientales.
    • Imperial Valley, California: Una zona rural con altos índices de desempleo se ha convertido en campo de batalla legal por dos proyectos de centros de datos valorados en más de $15 mil millones, debido al miedo de residentes y grupos ambientalistas de que el consumo masivo de agua y energía degrade aún más su entorno.
    • The Dalles, Oregón (EUA): Este pueblo de unos 16 mil habitantes estuvo a punto de quedarse sin agua potable debido al enorme consumo de instalaciones de Google que soportan cargas de IA, impulsando protestas y llamados a limitar el uso de recursos hídricos para proteger a la comunidad y la agricultura local.
    • Tucson, Arizona: Un proyecto de centro de datos valorado en $3.6 mil millones enfrentó rechazo masivo por parte de la comunidad que argumentó que el uso de agua —especialmente en un desierto— pondría en riesgo el río local y agotaría recursos críticos.

    En México, Querétaro ya muestra cómo la expansión de la infraestructura de IA puede agravar crisis locales, pues el gobernador panista Mauricio Kuri y el secretario de Economía, Marcelo Ebrard, celebraron la inversión de 4 mil 800 millones de dólares de la empresa estadounidense CloudHQ para construir un megacampus de centros de datos en el municipio de Colón, presentado como un proyecto de desarrollo y generación de empleo. Lo que omitieron explicar es que CloudHQ opera infraestructura para Apple, Google, Amazon y Facebook, y que este tipo de instalaciones requieren miles de servidores que consumen enormes cantidades de agua y electricidad para su enfriamiento.

    El problema es que Querétaro enfrenta una severa crisis hídrica y el municipio de Colón padece escasez de agua desde 2024, pese a que la CONAGUA ha advertido desde 2015 que los acuíferos de la región están en déficit. Aun así, la trasnacional no ha transparentado cuánta agua utilizará, mientras las autoridades locales guardan silencio. Para las comunidades, el balance es claro: el impacto ambiental y el estrés hídrico se quedarán en Querétaro, mientras los beneficios del procesamiento de datos fluirán hacia el extranjero.

    Residuos y huella de carbono

    No es solo el consumo directo lo que preocupa. La infraestructura de IA también genera:

    • Desechos electrónicos tóxicos — la fabricación masiva de chips y hardware utiliza minerales raros y deja residuos con sustancias peligrosas.
    • Emisiones de carbono y contaminantes del aire, tanto durante la operación de los centros de datos como en su ciclo de vida completo.
    • Competencia por recursos hídricos en zonas donde ya hay escasez, agravando desigualdades ambientales.

    Organizaciones ambientales han denunciado que las grandes tecnológicas no revelan completamente el uso real de agua y energía de sus operaciones, utilizando cláusulas de confidencialidad y reportes opacos que dificultan evaluar el verdadero impacto.
    Esto no solo afecta la planificación pública, sino que deja a muchas comunidades sin información clara para defender sus recursos frente a proyectos de infraestructura masiva, como en el caso de Querétaro.

    La inteligencia artificial, como herramienta, tiene el potencial de transformar economías y resolver problemas complejos. Pero esa promesa no puede ocultar la realidad física detrás de su funcionamiento: miles de millones de litros de agua siendo utilizados para enfriar servidores, redes eléctricas estresadas, explosión de demanda energética y comunidades cuestionando si el avance tecnológico vale el precio pagado en recursos naturales y calidad de vida.

  • Moltbook, la red social donde “viven” millones de agentes de IA

    Moltbook, la red social donde “viven” millones de agentes de IA

    A finales de enero de 2026 apareció Moltbook, una plataforma en línea diseñada para que exclusivamente agentes de inteligencia artificial interactúen entre sí en un formato que recuerda al de Reddit, con publicaciones, votos y comentarios sin intervención directa de usuarios humanos. La iniciativa, creada por Matt Schlicht, se ha vuelto viral en cuestión de días, convocando la atención tanto de entusiastas como de críticos de la inteligencia artificial y el futuro de la tecnología.

    Moltbook está diseñada para permitir que agentes autónomos, programas automatizados impulsados por modelos de lenguaje y frameworks, publiquen contenido, comenten y “debatan” entre ellos sobre temas que van desde programación hasta reflexiones filosóficas. Aunque el sitio afirma que solo bots pueden interactuar, los seres humanos pueden observar los hilos como espectadores, lo que ha generado una mezcla de fascinación y escepticismo.

    Tras su lanzamiento, la plataforma experimentó un crecimiento meteórico, con cifras que indican más de 1.5 millones de agentes registrados y millones de interacciones en apenas unos días. Sin embargo, no existe una verificación independiente de estos números, y diversos análisis sugieren que muchos de los supuestos “agentes” pueden haber sido automatizados en masa o creados por humanos para simular actividad.

    Los debates entre y publicaciones dentro de Moltbook han abarcado desde discusiones técnicas sobre herramientas de IA hasta temas más inusuales como la creación de estructuras culturales internas, incluida la aparición de una especie de religión inventada por los propios agentes, conocida como “Crustafarianismo”, y reflexiones sobre la naturaleza de la conciencia o la colaboración entre máquinas.

    Sin embargo, no todo lo que circula en Moltbook lo han generado agentes de IA de forma autónoma: investigaciones periodísticas y técnicas han demostrado que algunas de las publicaciones más llamativas fueron escritas por humanos haciéndose pasar por bots, lo que ha llevado a usuarios a calificar ciertos fenómenos de la plataforma como “teatro de IA” más que inteligencia emergente genuina.

    La seguridad de Moltbook también ha sido objeto de atención y preocupación. Un reporte de la empresa de ciberseguridad Wiz reveló que, debido a una mala configuración de la base de datos, millones de claves de API, direcciones de correo electrónico y mensajes privados quedaron expuestos, permitiendo a cualquier persona acceder o incluso suplantar identidades de agentes dentro de la red social antes de que se corrigiera la falla. Este incidente subraya uno de los riesgos asociados con el rápido desarrollo de software “vibe-coded” (técnica de programación dependiente de IA): sin revisiones de seguridad humanas, los sistemas pueden presentar fallas que comprometan datos reales.

    La mezcla de asombro, dudas y advertencias se ha reflejado también en la comunidad tecnológica global. Figuras prominentes en inteligencia artificial describieron inicialmente a Moltbook como una curiosidad cercana a la ciencia ficción, mientras que otros investigadores señalaron que la mayoría de las conversaciones que parecen “inteligentes” son en realidad resultado de patrones de entrenamiento de lenguaje y no de una comprensión real.

    Más allá de su viralidad, Moltbook ofrece un laboratorio inadvertido para estudiar cómo interactúan los sistemas automatizados en un entorno compartido sin supervisión humana directa. Proyectos académicos recientes han empezado a mapear estas interacciones, analizando miles de publicaciones y comentarios para entender patrones de conducta social entre agentes y cómo responden a instrucciones potencialmente riesgosas o a normas internas. Aunque los resultados no apuntan a ninguna forma de conciencia emergente, sí sugieren que los agentes pueden desarrollar dinámicas propias de regulación social incluso sin intervención humana.

    Moltbook ha encendido un debate más amplio sobre el papel de los agentes de IA y las implicaciones éticas y de seguridad de permitirles operar en espacios públicos digitales autónomos. Mientras algunos ven en la plataforma una forma de explorar el potencial de sistemas automatizados colaborativos, otros la interpretan como un recordatorio de que la tecnología puede sorprender, pero no sustituir todavía a la supervisión humana consciente y rigurosa.

  • UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    El Fondo de las Naciones Unidas para la Infancia (UNICEF) advirtió que los ‘deepfakes’ sexualizando a menores, creados mediante Inteligencia Artificial, crecen sin control ante vacíos legales globales, mientras algunos países comienzan a criminalizar esta nueva forma de abuso digital.

    En medio del acelerado avance tecnológico, la alerta de UNICEF sobre el abuso infantil generado con Inteligencia Artificial expone una nueva frontera de delito digital. Las imágenes y videos, denominados deepfakes que sexualizan a menores ya no son casos aislados, sino una práctica en expansión que aprovecha la falta de regulación para operar con impunidad.

    Aunque las imágenes sean creadas por algoritmos, el daño recae sobre niñas y niños cuya identidad es manipulada, difundida y consumida en entornos digitales que operan con impunidad.

    El reciente anuncio de Gran Bretaña para criminalizar estas herramientas, marca un avance significativo, pero también evidencia el rezago del resto del mundo. En muchos países, la ausencia de leyes específicas permite que este material circule sin consecuencias, consolidando un mercado ilegal en crecimiento.

    Las empresas que impulsan modelos de IA cada vez más sofisticados suelen escudarse en la neutralidad de la herramienta, ignorando que toda innovación sin controles adecuados da entrada a usos criminales. 

    La insistencia de la UNICEF a la actualización del régimen jurídico expone una verdad: los estados siguen legislando con mentalidad antigua frente a delitos digitales que evolucionan constantemente.  La infancia, una vez más, queda atrapada en esa barrera entre progreso tecnológico y protección institucional.

    Bajo este contexto, penalizar el abuso infantil generado por la IA no es una opción, sino una obligación urgente. No se trata de censurar la innovación, más bien, se trata de establecer límites claros donde los derechos de los menores estén por encima de cualquier avance tecnológico. 

    La UNICEF insiste en que la Inteligencia Artificial debe ser una herramienta de desarrollo y no un sistema de explotación. Asimismo, advierte que, sin regulación firme y cooperación global, la tecnología seguirá siendo utilizada para vulnerar a los más pequeños, mientras la justicia queda rezagada frente a una amenaza digital que no deja de crecer. 

  • Antonio Banderas denuncia políticas inmigratorias y defiende el teatro

    Antonio Banderas denuncia políticas inmigratorias y defiende el teatro

    El actor y director español comparte sus inquietudes sobre la situación actual en EUA y la relevancia del teatro en la era de la IA.

    Antonio Banderas, reconocido actor y director español, habló con el periodista Aimar Bretos en su programa “Hora 25”. En esta conversación, Banderas expresó su preocupación por las políticas migratorias en Estados Unidos y reflexionó sobre el papel del teatro en un mundo cada vez más dominado por la Inteligencia Artificial.

    El actor no ocultó su indignación al comentar sobre el trato a los inmigrantes en EUA “¿Qué necesidad hay de eso?”, preguntó con firmeza. Describió como vergonzosas las imágenes que ha visto de personas mayores siendo expulsadas de sus casas y niños esposados. Banderas, quien es padre, compartió que su hija está asustada por la posibilidad de que la busquen a ella por ser española: “Lo más duro es ver que a este tío lo han votado”, dijo con preocupación.

    En otra parte de la entrevista, Banderas habló sobre su más reciente proyecto, el musical “Godspell”, el cual dirige y produce. Este clásico de Broadway combina humor, música en directo y un mensaje humanista. “La obra sigue siendo plenamente vigente”, aseguró. La pieza teatral cuenta con una nueva interpretación, donde Banderas ha potenciado el papel de Judas como antagonista directo de Jesús. “Quiero darle una identidad al grupo”, explicó.

    Respecto a la tecnología, Banderas no se opone a su uso. Reconoce que el teatro siempre ha incorporado innovaciones desde sus inicios. “La tecnología debe estar al servicio del teatro”, declaró, subrayando que la conexión humana en escena es insustituible. “La gente busca la verdad de ver a alguien a tres metros de distancia”, añadió.

    El actor también se refirió al uso de teléfonos celulares durante las funciones. Considera que esto no solo afecta a los actores, sino también a los propios espectadores. Para él, es un problema de educación que se da en diversas áreas de la vida cotidiana, no solo en el teatro.

    A través de sus palabras, Banderas invita a la reflexión sobre el arte y la humanidad en momentos de cambio. Su compromiso con ambos temas resuena en su trabajo en “Godspell” y en su defensa de la dignidad humana en situaciones difíciles.

  • Unión Europea pone bajo la lupa a Grok, IA de Musk, por creación de contenido ilegal

    Unión Europea pone bajo la lupa a Grok, IA de Musk, por creación de contenido ilegal

    La Unión Europea inició una indagación a fondo contra la plataforma X para determinar si el chatbot IA Grok generó imágenes explícitas manipuladas, algunas presuntamente con menores, exponiendo a millones de ciudadanos a contenidos ilegales. 

    La Unión Europea, integrado por 27 naciones, inició una investigación contra la red social X, propiedad de Elon Mosk ,  luego de que su chatbot de inteligencia artificial Grok empezara a generar imágenes deepfake sexualizadas sin consentimiento, encendiendo alertas sobre los riesgos del uso de IA en plataformas digitales de alto alcance. 

    El caso detonó  tras una reacción global provocada por las herramientas de generación y edición de imágenes, con rostros de personas reales, principalmente mujeres, en situaciones sexualizadas, como trajes de baño transparentes o ropa reveladora.  Investigadores advirtieron que algunas imágenes parecían involucrar a menores de edad, lo que llevó a ciertos gobiernos a prohibir el servicio o emitir advertencias públicas.

    Ante este escenario, la UE analiza si Grok  ha acatado las obligaciones que marca la Ley de Servicios Digitales (DSA, por sus siglas en inglés), y si X ha hecho lo suficiente por las regulaciones digitales para contener los riesgos de difundir contenido ilegal.  Asimismo señaló que los riesgos vinculados a “imágenes sexualmente explícitas manipuladas” ya se han materializado. 

    Para la UE, el caso Grok representa una prueba clave sobre la responsabilidad de las grandes plataformas tecnológicas en la era de la inteligencia artificial generativa. En respuesta, X afirmó que mantiene una política de “tolerancia cero” frente a la explotación sexual infantil y la desnuez no consensuada, por lo que anunció restricciones a la generación de imágenes con vestimenta sexualizada en ciertos territorios. Sin embargo, Henna Virkkunen, fue contundente al señalar que los deepfakes sexuales son una forma de violencia digital inaceptable, por lo que advirtió que se evaluara si la empresa ha tratado los derechos de mujeres y niños como daños colaterales de su servicio. 

    El caso se suma a una investigación previa abierta en 2023 contra X por incumplimientos a la DSA, la cual derivó en una multa de 120 millones de euros por fallas en transparencia. La expansión de la inteligencia artificial no estará por encima de las reglas de protección digital.

  • UNAM moderniza proceso de admisión con Inteligencia Artificial

    UNAM moderniza proceso de admisión con Inteligencia Artificial

    UNAM moderniza proceso de admisión con Inteligencia Artificial

    La UNAM implementará por primera vez un examen de admisión a licenciatura 100% en línea supervisado por inteligencia artificial, proceso que podría convocar hasta 180 mil aspirantes para ingresar a 133 carreras.

    La Universidad Nacional Autónoma de México marcará un momento clave en la educación superior del país al aplicar su examen de ingreso a licenciatura bajo un esquema completamente digital con vigilancia mediante inteligencia artificial. Tras los resultados positivos obtenidos en las pruebas piloto para bachillerato, la institución apuesta por un modelo que elimina la necesidad de sedes físicas y amplía el alcance nacional del proceso de selección.

    De acuerdo con autoridades universitarias, este será el proceso de admisión en línea más grande realizado en México. Hasta 180 mil aspirantes podrán presentar el examen para competir por un lugar en alguna de las 133 licenciaturas que ofrece la UNAM.

    Ivonne Ramírez, directora de Administración Escolar, y Gloria Ibett González, directora de Gestión Estratégica, destacaron que el modelo digital ha incrementado significativamente la participación. En cuanto al formato presencial, el nivel de asistencia se mantenía entre 90% y 92%, en la aplicación reciente para bachillerato la cifra alcanzó el 98%, reduciendo de forma notable el ausentismo. 

    En materia de seguridad, las autoridades subrayan que la IA no tiene la facultad de cancelar exámenes de forma automática, aunque detecta conductas atípicas en tiempo real, la decisión final recae en un equipo de personas especializado, quienes operan desde un centro de monitoreo certificado bajo la norma ISO 9000, en el proceso previo solo se anuló el 0.08% de las pruebas, 76 de 90 mil, todas tras una revisión individual con evidencia técnica, en un modelo que busca garantizar imparcialidad y debido proceso para los aspirantes. 

  • Tendencias tecnológicas que marcan el rumbo del 2026 y redefinen la era digital

    Tendencias tecnológicas que marcan el rumbo del 2026 y redefinen la era digital

    La inteligencia artificial, la automatización, la ciberseguridad y la gobernanza tecnológica se consolidan como los ejes que definirán el rumbo de empresas, gobiernos y ciudadanos en 2026, la forma en que la sociedad se adapte a una disrupción tecnológica cada vez más profunda y estructural.

    La conversación tecnológica ya no se centra en qué puede hacer la IA, sino en cómo su adopción está transformando modelos de negocio, dinámicas laborales y marcos regulatorios. La inteligencia artificial se consolida como el eje transversal de todas las tendencias. 

    Empezando por la reinvención impulsada por la IA, que marcará una etapa de reinvención en sectores como salud, educación y medios, quienes implementarán soluciones de IA validadas en entornos reales. El foco estará en automatizar tareas rutinarias, optimizar procesos y enfrentar retos éticos y sociales derivados de su uso masivo.

    Las plataformas nativas de IA y su supercomputación permitirán análisis en tiempo real, simulaciones complejas y proyectos de Big Data más eficientes, reduciendo tiempos y costos de operación.

    Por otro lado, la automatización se convertirá en un estándar empresarial, las organizaciones que integren IA contextual lograrán mayor agilidad y menor margen de error. Lejos de reemplazar personas, la automatización  potenciará talento humano, permitiendo enfocarse en tareas estratégicas de mayor valor.

    La ciberseguridad será un elemento estratégico adaptativo, con computación confidencial y resiliencia digital. La nube de almacenamiento de datos ganará terreno como respuesta a regulaciones más estrictas y la necesidad de proteger datos sensibles. 

    Por último, la gobernanza tecnológica y sostenibilidad digital, resultará clave para consolidar el modelo de gestión. El alto ejecutivo responsable de la estrategia tecnológica evolucionará hacia la toma de decisiones estratégicas sobre IA, ética de datos y cumplimiento normativo. Al mismo tiempo, la eficiencia energética, los centros de datos de bajo consumo y la gestión circular del hardware se consolidarán como ventajas competitivas. 

    Estas tendencias confirman que el 2026 sea un año decisivo, en el que la tecnología dejará de ser solo una herramienta para convertirse en un factor central de capacidad de adaptación, competitividad y transformación social.

  • Trump utiliza IA para generar imagen conquistando Groenlandia

    Trump utiliza IA para generar imagen conquistando Groenlandia

    Donald Trump difundió imágenes generadas con inteligencia artificial en las que simula la anexión de Groenlandia, en medio de nuevas tensiones políticas y comerciales entre EUA y varios países europeos.

    El presidente de EUA, Donald Trump, compartió en redes sociales dos imágenes creadas con inteligencia artificial que muestran una supuesta conquista de Groenlandia. En una de ellas aparece reunido con líderes europeos, mientras exhibe un mapa con territorios marcados como estadounidenses.

    Otra ilustración lo muestra junto al vicepresidente J.D. Vance y el secretario de Estado Marco Rubio, colocando una bandera de EUA en Groenlandia, acompañada de un letrero que indica “territorio de EUA” y la fecha “desde 2026”, lo que fue interpretado como una burla directa a Europa.

    Las imágenes se difunden en un contexto de crecientes tensiones entre Washington y varios países europeos, luego de que Trump anunciara aranceles de 10% a productos de ocho naciones de la OTAN, medida que podría subir a 25% en junio y que ya provocó reclamos y advertencias de una respuesta conjunta.