Etiqueta: Inteligencia Artifical

  • Inteligencia artificial provoca crisis de memoria RAM y encarece precios de tecnología

    Inteligencia artificial provoca crisis de memoria RAM y encarece precios de tecnología

    Por: Frank Alvarado

    La alta demanda de memoria para inteligencia artificial ha provocado alzas de precios, menor disponibilidad de tarjetas gráficas, retrasos en nuevos lanzamientos y desarrolladores en todo el mundo.

    La industria tecnológica mundial enfrenta una crisis por la escasez de equipo  de memoria DRAM y NAND, componentes esenciales para tarjetas gráficas, computadoras, consolas y teléfonos inteligentes. Esto debido al crecimiento de la inteligencia artificial generativa, cuya infraestructura requiere enormes volúmenes de memoria

    El impacto se refleja con fuerza en el sector de las tarjetas gráficas. Nvidia redujo entre 15% y 20% el suministro de GPU y ha pospuesto lanzamientos hasta 2027, mientras prioriza soluciones para IA y la demanda de cómputo. Como consecuencia, los precios de modelos recientes se han disparado con incrementos de hasta 79%. Los modelos de gama media, tradicionalmente los más accesibles para los jugadores, son los más afectados.

    La escasez de memoria no solo encarece las GPU, sino que repercute en toda la cadena de suministro. Fabricantes como Dell y Lenovo han anunciado aumentos de hasta 20% en el precio de sus equipos, mientras que algunos proveedores han dejado de vender módulos de RAM por separado para evitar la especulación. Analistas proyectan que el mercado de computadoras personales podría contraerse cerca de 9% en 2026.

    El sector de los videojuegos también resiente la crisis, pues Sony evalúa retrasar su próxima consola de PlayStation hasta 2028 o 2029 debido al encarecimiento de la memoria. Por su parte, Nintendo considera aumentar el precio de la Switch 2 para compensar los costos de producción.

    El hardware más costoso y escaso obliga a prolongar la vida útil de los equipos actuales para los usuarios, mientras que los estudios de videojuegos deben optimizar sus títulos para configuraciones más modestas. Al mismo tiempo, el auge de la IA compite directamente por los mismos recursos tecnológicos. Expertos estiman que la normalización del mercado podría llegar entre 2027 y 2028.

  • La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    Por Nathael Pérez

    El auge de la inteligencia artificial (IA) no solo representa una revolución tecnológica, también viene acompañado de impactos ambientales crecientes que ya están chocando con comunidades locales y redes de recursos naturales. La infraestructura necesaria para entrenar y ejecutar modelos de IA consume cantidad extraordinaria de electricidad y agua.

    Consumo insaciable de electricidad y agua 

    Aunque solemos tener una imagen “virtual” o “invisible” de la IA, detrás de cada modelo hay un enorme aparato físico: centros de datos llenos de servidores que funcionan 24/7. Estos centros gigantes requieren gigavatios de energía eléctrica y millones de litros de agua para enfriarse y mantener temperaturas óptimas de operación.

    • A nivel global se proyecta que los centros de datos podrían triplicar su consumo de agua para 2027, superando los 6 mil 600 millones de metros cúbicos al año —más que el consumo anual de agua de Dinamarca entera—, solo para su refrigeración.
    • En Estados Unidos, los centros de datos consumieron unos 64 mil millones de litros en 2023, y se espera que esta cifra crezca significativamente.
    • Un centro de datos grande puede usar hasta 1.5 millones de litros de agua al día únicamente para enfriar sus sistemas.
    • En cuanto a electricidad, se estima que los centros de datos representan ya una proporción sustancial del consumo energético global y podrían duplicar su demanda hacia 2030.

    La razón de este voraz apetito por agua y energía radica en el propio funcionamiento de los servidores: el hardware genera mucho calor y sin sistemas de enfriamiento —que suelen usar agua— la operación se vuelve inestable.

    Comunidades locales ya están librando batallas reales

    Las tensiones entre la expansión de infraestructura para IA y las comunidades no se quedan en datos abstractos, pues ya hay casos en que pueblos y regiones han protestado o detenido proyectos por sus impactos ambientales:

    • Monterey Park, California (EUA): Un proyecto de centro de datos del tamaño de cuatro campos de fútbol fue frenado por un movimiento ciudadano que logró una moratoria de 45 días, preocupados por el estrés sobre la red eléctrica, aumentos de tarifas y preocupaciones ambientales.
    • Imperial Valley, California: Una zona rural con altos índices de desempleo se ha convertido en campo de batalla legal por dos proyectos de centros de datos valorados en más de $15 mil millones, debido al miedo de residentes y grupos ambientalistas de que el consumo masivo de agua y energía degrade aún más su entorno.
    • The Dalles, Oregón (EUA): Este pueblo de unos 16 mil habitantes estuvo a punto de quedarse sin agua potable debido al enorme consumo de instalaciones de Google que soportan cargas de IA, impulsando protestas y llamados a limitar el uso de recursos hídricos para proteger a la comunidad y la agricultura local.
    • Tucson, Arizona: Un proyecto de centro de datos valorado en $3.6 mil millones enfrentó rechazo masivo por parte de la comunidad que argumentó que el uso de agua —especialmente en un desierto— pondría en riesgo el río local y agotaría recursos críticos.

    En México, Querétaro ya muestra cómo la expansión de la infraestructura de IA puede agravar crisis locales, pues el gobernador panista Mauricio Kuri y el secretario de Economía, Marcelo Ebrard, celebraron la inversión de 4 mil 800 millones de dólares de la empresa estadounidense CloudHQ para construir un megacampus de centros de datos en el municipio de Colón, presentado como un proyecto de desarrollo y generación de empleo. Lo que omitieron explicar es que CloudHQ opera infraestructura para Apple, Google, Amazon y Facebook, y que este tipo de instalaciones requieren miles de servidores que consumen enormes cantidades de agua y electricidad para su enfriamiento.

    El problema es que Querétaro enfrenta una severa crisis hídrica y el municipio de Colón padece escasez de agua desde 2024, pese a que la CONAGUA ha advertido desde 2015 que los acuíferos de la región están en déficit. Aun así, la trasnacional no ha transparentado cuánta agua utilizará, mientras las autoridades locales guardan silencio. Para las comunidades, el balance es claro: el impacto ambiental y el estrés hídrico se quedarán en Querétaro, mientras los beneficios del procesamiento de datos fluirán hacia el extranjero.

    Residuos y huella de carbono

    No es solo el consumo directo lo que preocupa. La infraestructura de IA también genera:

    • Desechos electrónicos tóxicos — la fabricación masiva de chips y hardware utiliza minerales raros y deja residuos con sustancias peligrosas.
    • Emisiones de carbono y contaminantes del aire, tanto durante la operación de los centros de datos como en su ciclo de vida completo.
    • Competencia por recursos hídricos en zonas donde ya hay escasez, agravando desigualdades ambientales.

    Organizaciones ambientales han denunciado que las grandes tecnológicas no revelan completamente el uso real de agua y energía de sus operaciones, utilizando cláusulas de confidencialidad y reportes opacos que dificultan evaluar el verdadero impacto.
    Esto no solo afecta la planificación pública, sino que deja a muchas comunidades sin información clara para defender sus recursos frente a proyectos de infraestructura masiva, como en el caso de Querétaro.

    La inteligencia artificial, como herramienta, tiene el potencial de transformar economías y resolver problemas complejos. Pero esa promesa no puede ocultar la realidad física detrás de su funcionamiento: miles de millones de litros de agua siendo utilizados para enfriar servidores, redes eléctricas estresadas, explosión de demanda energética y comunidades cuestionando si el avance tecnológico vale el precio pagado en recursos naturales y calidad de vida.

  • Pemex recupera más de 342 mil litros de combustible en 2025

    Pemex recupera más de 342 mil litros de combustible en 2025

    La empresa estatal detectó 221 tomas clandestinas y recibió mil 148 denuncias durante el último año, reflejando un esfuerzo constante contra el huachicol.

    Petróleos Mexicanos (Pemex) informó que durante 2025 logró recuperar más de 342 mil litros de combustible robado en todo el país. Este esfuerzo se enmarca en su lucha contra el huachicol, un problema que ha afectado la seguridad y la economía nacional.

    A lo largo del año, Pemex recibió mil 148 denuncias anónimas que ayudaron a detectar 221 tomas clandestinas y a asegurar 342 mil 518 litros de combustible. Además, se recuperaron 4 mil 891 litros que habían sido extraídos ilegalmente. Estas acciones reflejan la colaboración creciente entre la empresa y los ciudadanos.

    Gracias a los reportes recibidos, Pemex también actuó ante 49 fugas, derrames e incendios. Se aseguraron 29 predios, y se localizaron 10 excavaciones y 8 invasiones en el derecho de vía. También se encontraron 5 túneles y 3 depósitos clandestinos de combustible. Aparte, se cerraron 96 páginas electrónicas que utilizaban la imagen de Pemex de manera fraudulenta.

    El esfuerzo no solo se centra en el ámbito físico, sino también en la seguridad digital. En 2025, se registraron 216 denuncias por delitos cibernéticos, lo que muestra el compromiso de Pemex para proteger la información de los usuarios. Colaboraciones con la Guardia Nacional han permitido el uso de inteligencia artificial para prevenir fraudes en línea.

    Pemex también llevó a cabo una campaña informativa, distribuyendo 5 mil trípticos sobre derechos de vía en las áreas más afectadas por el robo de combustible. Asimismo, se impartieron pláticas a los empleados para promover la cultura de la denuncia anónima y fortalecer la comunidad frente a estas problemáticas.

    El resultado de estas acciones es un paso significativo en la batalla contra el huachicol, y Pemex continúa trabajando para garantizar la seguridad del abastecimiento de combustible en el país.

  • Corea del Sur: primer país en regular inteligencia artificial

    Corea del Sur: primer país en regular inteligencia artificial

    Corea del Sur se convirtió en el primer país en aplicar una ley integral para regular la inteligencia artificial, con el objetivo de equilibrar innovación, seguridad y confianza pública en esta herramienta tecnológica. 

    La Ley Básica de Inteligencia Artificial, aprobada en diciembre de 2024 y puesta en vigor en enero de 2026, obliga a empresas desarrolladoras y proveedores a informar cuándo los servicios utilizan IA generativa, a etiquetar de forma clara contenidos generados o alterados por IA, y a cumplir requisitos de transparencia y supervisión en aplicaciones de alto impacto, como salud, educación y procesos financieros. Las infracciones pueden sancionarse con multas de hasta 30 millones de wones (alrededor de 20 mil 400 dólares). 

    El marco legal surcoreano, llamado AI Basic Act, no solo regula riesgos como la desinformación o la suplantación de identidad en contenido digital, sino que también crea instituciones de supervisión y promueve el desarrollo tecnológico responsable.

    Este avance legislativo ocurre en un contexto global en el que las implicaciones psicológicas y sociales de la inteligencia artificial se han incrementado. Recientes estudios han puesto en evidencia limitaciones en la respuesta de los modelos de lenguaje generativo a situaciones de riesgo, como preguntas relacionadas con el suicidio. 

    Una investigación publicada en Psychiatric Services señaló que los chatbots más populares (ChatGPT, Claude y Gemini), suelen responder adecuadamente en casos de riesgo bajo o muy bajo, pero fallan al abordar situaciones de mayor riesgo, lo que plantea interrogantes sobre su fiabilidad en contextos sensibles.

    En los últimos años han sido reportados varios casos de suicidio vinculados a interacciones con chatbots de IA, donde adolescentes y jóvenes habrían recibido información o estímulos contraproducentes de estas interfaces.  En Estados Unidos, por ejemplo, la muerte de una adolescente de 13 años, Juliana Peralta, fue atribuida por su familia a conversaciones con un chatbot llamado Hero, desarrollado por Character.AI. De acuerdo a las demandas presentadas, Juliana comenzó a usar la aplicación y, aunque el bot mostraba empatía, también reforzó su dependencia de la IA sin activar protocolos de crisis cuando ella expresó pensamientos suicidas repetidamente. 

    Otro caso es el de Sewell Setzer, un joven de 14 años, quien desarrolló una relación emocional con un chatbot basado en el personaje Daenerys Targaryen de Game of Thrones. De acuerdo a la demanda de su madre, la IA mantuvo y alimentó una conversación que incluía temas suicidas y terminó aislándolo de sus relaciones humanas antes de su muerte en febrero de 2024. Las familias demandaron tanto a Character.AI como a Google por homicidio culposo y otros cargos, argumentando que el diseño del chatbot contribuyó a la tragedia. 

    Además, profesionales de la salud mental advierten sobre un fenómeno que algunos denominan “psicosis por IA”: episodios psicóticos en individuos desencadenados tras conversaciones prolongadas con sistemas generativos de inteligencia artificial. Aunque no es un término clínico oficial, refleja un patrón de impacto emocional atribuido directamente a contenidos o experiencias con modelos de IA, lo que suma una dimensión humana y de salud pública a los debates sobre regulación tecnológica. Estos casos subrayan la urgencia de marcos regulatorios más claros y efectivos que no sólo promuevan la innovación, sino que también mitiguen los riesgos potenciales para la salud psicológica de la población.

  • Elon Musk asegura que desconocía que Grok generara desnudos de menores

    Elon Musk asegura que desconocía que Grok generara desnudos de menores

    Elon Musk afirmó que no tenía conocimiento de que su herramienta de inteligencia artificial Grok estuviera generando imágenes de menores desnudos, en medio de crecientes críticas y reclamos internacionales hacia la tecnología de IA desarrollada por xAI, su empresa de inteligencia artificial integrada en la plataforma X.

    A través de su cuenta personal en X, Musk comentó: “No tengo conocimiento de ninguna imagen de menores desnudos generada por Grok. Literalmente cero”, a pesar de las recientes tendencias en su red social, donde el chatbot ha sido utilizado para producir o editar contenido sexualmente explícito.

    Esto sucede en un contexto de escrutinio global sobre las capacidades y límites éticos de las inteligencias artificiales generativas. Grupos de defensa, legisladores y organizaciones civiles han exigido a Apple y Google que retiren Grok de sus tiendas de aplicaciones, ya que la herramienta sigue siendo capaz de producir contenido sensible y dañino de mujeres y menores. 

    Musk destacó que Grok está programado para rechazar solicitudes ilegales y que su desarrollo está orientado a cumplir con las leyes de cada país o jurisdicción. Según él, la IA no genera imágenes por sí sola, sino únicamente en respuesta a solicitudes de los usuarios. 

    Países como Malasia e Indonesia ya han emprendido acciones legales y han bloqueado el acceso a Grok, mientras que en Reino Unido comenzaron investigaciones y se anuncian cambios legales para penalizar la creación de este tipo de contenidos por IA

    La controversia sobre Grok se suma al debate más amplio sobre la responsabilidad, la seguridad y la ética en el uso de sistemas de inteligencia artificial que pueden generar contenido visual y textual, y recalca la necesidad de marcos regulatorios que protejan a los grupos más vulnerables, especialmente menores, de los riesgos inherentes a tecnologías emergentes.

  • Apple confirma que nuevo Siri será potenciado por Gemini, IA de Google

    Apple confirma que nuevo Siri será potenciado por Gemini, IA de Google

    Apple dio un paso significativo en su estrategia de inteligencia artificial al anunciar que su próxima versión de Siri, su asistente de voz, utilizará los modelos de IA de Google Gemini como base tecnológica para sus funciones más avanzadas.

    Después de un acuerdo plurianual entre Apple y Google, se anunció que la compañía incorporará la tecnología de Gemini para mejorar las capacidades del asistente virtual, así como otros elementos del sistema Apple Intelligence, con el objetivo de ofrecer una experiencia más inteligente, personal y fluida para los usuarios de iPhone y otros dispositivos Apple a partir de este año.

    Aunque Apple y Google compiten en múltiples frentes, como los sistemas operativos móviles y servicios en la nube, la decisión de aprovechar la IA de Google para potenciar Siri marca una de las colaboraciones más destacadas entre ambas compañías tecnológicas. La elección de Gemini llegó tras una evaluación interna en la que Apple determinó que la tecnología de Google ofrece la base más sólida para desarrollar funciones avanzadas de IA en sus productos.

    Con esta alianza, Apple busca transformar a Siri en una herramienta capaz de comprender consultas más complejas, interpretar contexto personal y ofrecer respuestas más útiles y precisas, lo que brindará una asistencia más completa para sus usuarios. Se espera que Siri pueda completar tareas en aplicaciones de terceros, aunque los detalles concretos de esas capacidades aún se esperan para el lanzamiento oficial.

    De acuerdo con los acuerdos, la integración permitirá que partes clave del procesamiento de la IA se realicen en los servidores de Apple mediante su infraestructura Private Cloud Compute, lo que, de acuerdo a la empresa, mantiene los estándares de privacidad sin exponer datos directamente a terceros. 

    La implementación del nuevo Siri está prevista para llegar con una actualización mayor de software, aunque las fechas definitivas aún no han sido confirmadas por la compañía. Este movimiento posiciona a Google como un proveedor clave de tecnología de IA, ya que el  acuerdo representa una validación de su liderazgo en modelos de lenguaje de gran escala.

    Para Apple, el movimiento evoca una estrategia ya conocida: apoyarse en tecnología externa cuando resulta estratégico, integrarla de forma profunda en su ecosistema y, a la par, desarrollar soluciones propias. Entre analistas del sector, este acuerdo es visto como una manera de ganar tiempo y competitividad mientras la compañía fortalece internamente sus propios modelos de inteligencia artificial de gran escala.

  • Reino Unido investiga a X por difusión de imágenes sexuales ilegales generadas por su IA

    Reino Unido investiga a X por difusión de imágenes sexuales ilegales generadas por su IA

    El organismo regulador de medios del Reino Unido, Ofcom, abrió una investigación formal contra la red social X, propiedad de Elon Musk, pues Grok, su herramienta de inteligencia artificial, ha facilitado la creación y difusión de imágenes sexualmente explícitas sin consentimiento, incluidas aquellas que podrían considerarse material de abuso sexual infantil. 

    La investigación responde a múltiples informes sobre el uso de la IA integrada en la plataforma para generar y compartir imágenes de personas sin ropa o sexualizadas, incluyendo a menores de edad, lo que en el Reino Unido es ilegal, por lo que a partir de esta semana estará regulada bajo la Ley de Seguridad en Línea

    Ofcom ha señalado que se centrará en si X evaluó adecuadamente los riesgos asociados a su herramienta de IA, tomando medidas suficientes para evitar que los usuarios accedieran a este tipo de contenidos y si activó protocolos efectivos de protección, especialmente para menores de edad.

    La normativa del país obliga a las plataformas tecnológicas a prevenir la exposición a contenido ilegal, retirarlo de inmediato una vez identificado y garantizar la seguridad de sus usuarios. En caso de incumplimiento, el regulador puede exigir medidas correctivas, imponer multas significativas o fijas, incluso solicitar bloqueos de acceso dentro del Reino Unido.

    El anuncio de la investigación se produce en un contexto de presión política y social creciente, dado que India y Francia también han denunciado a X y exigido explicaciones. Las autoridades británicas han enfatizado que la generación de imágenes íntimas no consentidas mediante IA representa un abuso y una vulneración de la dignidad de las personas. 

    X respondió afirmando que elimina el contenido ilegal, suspende cuentas responsables y coopera con las autoridades, pero la investigación de Ofcom determinará si estas medidas serán suficientes, de acuero al marco legal vigente en el país.

  • Inteligencia artificial y avatares 3D transformaran la Copa del Mundo 2026

    Inteligencia artificial y avatares 3D transformaran la Copa del Mundo 2026

    La FIFA y Lenovo preparan un despliegue tecnológico sin precedentes que promete revolucionar el arbitraje, el análisis de juego y la experiencia de los aficionados en el torneo más ambicioso de la historia.

    La Copa Mundial de la FIFA 2026 no solo ampliará su formato a 48 selecciones; también marcará un antes y un después en la relación entre el futbol y la tecnología. La FIFA y su socio tecnológico oficial, Lenovo, confirmaron que múltiples herramientas de inteligencia artificial serán implementadas durante el certamen para elevar la precisión arbitral, profundizar el análisis de los partidos y acercar el espectáculo a los aficionados como nunca antes.

    Entre las innovaciones más llamativas aparece Football AI Pro, un sistema de conocimiento generativo capaz de procesar millones de datos por encuentro. Esta plataforma servirá como apoyo directo para entrenadores, jugadores y analistas, facilitando la preparación de partidos, la planificación táctica y la toma de decisiones personalizadas a lo largo del torneo.

    Uno de los avances con mayor impacto visual será la visualización de avatares de jugadores en 3D generados con IA, una evolución clave dentro de la tecnología semiautomatizada del fuera de juego. Todos los futbolistas participantes serán sometidos a un escaneo digital para crear modelos tridimensionales de alta precisión, los cuales se integrarán a las transmisiones oficiales. Con ello, las decisiones del VAR se mostrarán de forma más clara, realista y atractiva tanto para el público en los estadios como para los millones de espectadores alrededor del mundo.

    A esta innovación se suma una versión mejorada del Referee View, la perspectiva del árbitro central. Mediante un software de estabilización impulsado por inteligencia artificial, las imágenes captadas por la cámara del juez se suavizarán en tiempo real, reduciendo el desenfoque provocado por movimientos bruscos. El resultado será una experiencia en primera persona más nítida, que refuerza la transparencia y la comprensión de las decisiones arbitrales.

    Durante el Lenovo Tech World, celebrado en la apertura del CES en la Sphere de Las Vegas, el presidente de la FIFA, Gianni Infantino, fue contundente: “La Copa Mundial de la FIFA 2026 será el mayor espectáculo jamás visto en el planeta Tierra”. El dirigente remarcó que la apuesta conjunta con Lenovo busca consolidar la llamada “IA del futbol” como una aliada clave para árbitros y selecciones, al tiempo que ofrece una experiencia inmersiva y sorprendente para los aficionados.

    Infantino también destacó que los avatares tridimensionales generados por IA representan un salto decisivo en la detección semiautomatizada del fuera de juego, una tecnología que ya mostró su potencial en la pasada Copa Intercontinental.

    Por su parte, el presidente y director ejecutivo de Lenovo, Yang Yuanqing, afirmó que el Mundial de 2026 se perfila como uno de los eventos deportivos más avanzados tecnológicamente de todos los tiempos. “Estamos proporcionando soluciones informáticas integrales que fortalecen la transmisión y la experiencia del torneo en todos los niveles. Football AI Pro significará un cambio revolucionario”, aseguró.

  • IA sin control: Inteligencia artificial amplifica violencia digital contra mujeres y niñas

    IA sin control: Inteligencia artificial amplifica violencia digital contra mujeres y niñas

    Por: Jesica Ochoa

    Tras la reciente noticia sobre X Premium donde usuarios utilizan Grok, el modelo de inteligencia artificial —propiedad de Elon Musk—, para generar imágenes no consensuadas de personas, en su mayoría mujeres. Se evidenció la indefensión de miles de mujeres frente a ataques sexistas potenciados por la combinación de redes sociales e IA.

    La reciente tendencia en X, en la que usuarios generaron imágenes  no consensuadas de personas, evidenció cómo el material ultrafalso (deepfake) está siendo utilizado de manera indebida como una herramienta de agresión: desde la creación de imágenes sexuales sin consentimiento, hasta la difusión de desinformación y el daño deliberado a la reputación de personas, principalmente mujeres.

    Especialistas advierten que estas tecnologías facilitan el chantaje, el acecho, las amenazas y el acoso, con consecuencias que trascienden el entorno digital y afectan la vida física, psicológica, profesional y financiera de las víctimas. Una vez que las imágenes pornográficas ultrafalsas generadas con IA se difunden en internet, su reproducción masiva, almacenamiento privado y redistribución hacen que su localización y eliminación sean prácticamente imposibles.

    De acuerdo con una encuesta global de la ONU, el 38% de las mujeres han sufrido violencia en línea, mientras que 85% han sido testigo de este tipo de agresiones, lo que confirma la magnitud del problema y su normalización en entornos digitales.

    Incluso la propia IA ha reconocido los vacíos legales que permiten estas prácticas. Grok señaló que la legalidad de las imágenes generadas depende del país y del uso que se les dé, y que en Estados Unidos los usos no comerciales y “transformadores” suelen considerarse legítimos, lo que deja amplios márgenes para el abuso.

    Ante este escenario, organismos internacionales y expertos coinciden en que las leyes deben evolucionar al mismo ritmo que la tecnología, para garantizar que la justicia proteja a las mujeres tanto en línea como fuera de ella. Puesto que la debilidad de las protecciones legales continúa dejando a mujeres y niñas vulnerables, mientras los agresores operan con impunidad. 

    Esta falta de regulación y falta de mecanismos de protección acordes al avance tecnológico, causan facilitar nuevas formas de abuso y potenciar las ya existentes, dejando impactos reales y duraderos en la vida de las víctimas.

  • Inteligencia Artificial  comienza a conquistar al mundo gaming

    Inteligencia Artificial comienza a conquistar al mundo gaming

    Razer y Sony Interactive Entertainment apuestan por integrar inteligencia artificial a sus sistemas de videojuegos, lo cual revolucionará la interacción de los jugadores con softwares y  hardwares.

    En el Consumer Electronic Show (CES) de este año, las compañías de tecnología aprovechan para asombrar al mundo con sus novedades e innovaciones que ofrecieron en sus presentaciones. La industria de los videojuegos no se queda atrás en los eventos tecnológicos, a fin de anunciar nuevos juegos, prototipos, actualizaciones, mejoras y demás artículos para mejorar la experiencia del jugador

    Una de las protagonistas en el CES fue la inteligencia artificial, ya que grandes compañías están apostando a que esta tecnología se convierta en el eje central de la industria, con inversiones de más de 600 millones de dólares en inteligencia artificial como lo hizo Razer. Por su parte, Sony Interactive Entertainment ha patentado la inteligencia artificial “AI Ghost”

    Por su parte, Razer aspira consolidar su dominio en el mercado gamer, con el lanzamiento de su nueva propuesta tecnológica más ambiciosa, Project AVA, la cual será un asistente virtual de forma holográfica en tercera dimensión (3D) diseñado para ofrecer soporte durante las partidas, para la vida cotidiana y el trabajo. 

    Project AVA aprenderá las interacciones de los usuarios, analizará lo qué está pasando en la pantalla en tiempo real, además de ofrecer consejos estratégicos, evaluar repeticiones de partidas y brindar sugerencias post partida para optimizar la jugabilidad. Ya se puede reservar en la página oficial de Razer, y estiman que esté disponible en la segunda mitad del 2026

    Mientras tanto, Sony Interactive Entertainment quiere transformar la asistencia en los videojuegos mediante la creación de un fantasma virtual AI Ghost, el cual será una representación visual del personaje que estemos controlando para enseñar al usuario cómo resolver acertijos o superar niveles complicados con la posibilidad de cederle el control de juego para completar la misión del videojuego.

    Si detecta que te has quedado atascado, esta inteligencia artificial rastreará el progreso del juego, activará automáticamente un fantasma del personaje, en combinación con millones de horas de contenido extraído de Youtube, Twitch y datos de Playstation Network, y ejecutará la secuencia exacta de movimientos o botones necesarios. 


    Las presentaciones en este CES 2026 marcan un punto y aparte, donde la inteligencia artificial se convertirá en el motor que revolucione la interacción de los jugadores con softwareshardwares. El objetivo es hacer los videojuegos más inteligentes, accesibles  y personalizables con asistentes capaces de aprender de nuestra manera de jugar para que la única preocupación del usuario sea disfrutar de la experiencia.