En 2025, los robots humanoides impulsados ​​por IA, la tecnología generativa y la automatización transformarán los negocios, la atención médica y la ciberseguridad, al tiempo que introducirán nuevos desafíos éticos.

El año pasado, la inteligencia artificial (IA) amplió los límites de lo posible y las industrias se apresuraron a integrar sus capacidades para aumentar la productividad y automatizar tareas complejas.

En 2024, los avances de la IA se aceleraron a un ritmo que superó las innovaciones tecnológicas previas, sentando las bases para una disrupción aún mayor. Pero este rápido progreso conlleva un riesgo: sin supervisión humana, los errores de la IA podrían ser tan monumentales como sus avances.

La IA generativa y agente ya está mejorando la capacidad de los usuarios para obtener contenido sofisticado en diversos medios, mientras que las herramientas de atención médica basadas en IA están transformando los diagnósticos, superando a los médicos humanos en ciertas tareas. Estos avances indican una inminente transformación en la prestación de servicios de salud, con la IA lista para desempeñar un papel aún más importante en las operaciones comerciales e industriales.

El poder de la IA también generará agentes humanoides, señaló Anders Indset, autor e inversor en tecnologías de vanguardia como la IA, la tecnología cuántica, la tecnología sanitaria y la ciberseguridad. Al aproximarnos a 2025, el panorama tecnológico evoluciona rápidamente, con especial atención a los agentes humanoides.
“Este año comenzó con entusiasmo en torno a los modelos de lenguaje grande (LLM), pero terminará con avances innovadores en robots humanoides autónomos”, dijo Indset

En 2024, el desarrollo de robots se disparó, con innovaciones que antes parecían lejanas ahora a la vista. El esperado lanzamiento de humanoides totalmente autónomos, antes confinados a entornos industriales, se acerca, observó.

La llegada de 2025 trae consigo la anticipación de la adopción generalizada de la IA en robótica, la mejora de las interacciones entre humanos y robots y el auge de los modelos de robótica como servicio (RaaS). Esto hará que las soluciones robóticas avanzadas sean accesibles a más industrias, explicó Indset, describiendo el período de transformación que se avecina para la industria robótica.
“Los agentes humanoides transformarán nuestras interacciones con la tecnología y ampliarán las posibilidades de las aplicaciones de la IA en diferentes dominios”, predijo.

El papel cada vez más importante de la IA en la ciberseguridad y la bioseguridad

La IA desempeñará un papel cada vez más crucial en la ciberguerra, advirtió Alejandro Rivas-Vásquez, director global de análisis forense digital y respuesta a incidentes del Grupo NCC . La IA y el aprendizaje automático (ML) harán que la ciberguerra sea más letal, con daños colaterales fuera de las zonas de conflicto debido a la hiperconectividad, añadió.

Las defensas de ciberseguridad, que ya constituyen una herramienta eficaz para los guerreros digitales, se extenderán más allá de la protección de los sistemas digitales para proteger directamente a las personas mediante tecnología implantable. Las interfaces neuronales, la bioaumentación, los chips de autenticación y los implantes médicos avanzados revolucionarán la interacción humana con la tecnología.

Según Bobbie Walker, consultora gerente de NCC Group, estas innovaciones también introducirán riesgos importantes.

Los hackers podrían explotar las interfaces neuronales para controlar acciones o manipular percepciones, lo que conllevaría manipulación cognitiva y vulneraciones de la autonomía personal. La monitorización continua de datos de salud y comportamiento mediante implantes plantea importantes problemas de privacidad, con riesgos de uso indebido por parte de actores maliciosos o vigilancia gubernamental invasiva, declaró Walker a TechNewsWorld.

Para mitigar estos riesgos, serán esenciales nuevos marcos que vinculen la tecnología, la atención médica y las regulaciones de privacidad. Walker advirtió que las normas de bioética digital y las normas ISO de biociberseguridad ayudarán a definir prácticas seguras para la integración de la tecnología en el cuerpo humano, a la vez que abordan dilemas éticos.
“El campo emergente de la ciberbioseguridad nos impulsará a repensar los límites de la ciberseguridad, garantizando que la tecnología integrada en nuestros cuerpos sea segura, ética y proteja a las personas que la utilizan”, añadió.

Según Walker, los primeros estudios sobre interfaces cerebro-computadora (ICC) muestran que las entradas adversarias pueden engañar a estos dispositivos, lo que pone de relieve el potencial de abuso. A medida que los implantes evolucionan, aumentan los riesgos de ciberguerra y vulneraciones de la privacidad promovidas por Estados, lo que pone de relieve la necesidad de contar con medidas de seguridad robustas y consideraciones éticas.

Las copias de seguridad de datos impulsadas por IA plantean preocupaciones de seguridad

Sebastian Straub, arquitecto principal de soluciones de N2WS , afirmó que los avances en IA permiten a las organizaciones reanudar sus operaciones tras desastres naturales, cortes de energía y ciberataques. La automatización de la IA mejorará la eficiencia operativa al abordar las deficiencias humanas.

La automatización de copias de seguridad impulsada por IA reducirá prácticamente a cero la necesidad de intervención administrativa, explicó. La IA aprenderá los complejos patrones de uso de datos, los requisitos de cumplimiento normativo y las necesidades de la organización. Además, la IA se convertirá en una experta proactiva en la gestión de datos, determinando de forma autónoma qué se debe respaldar y cuándo, incluyendo el cumplimiento de estándares de cumplimiento como el RGPD, la HIPAA o el PCI DSS.

Pero Straub advirtió que, a medida que este nivel de dominio de la IA transforma drásticamente los procesos de recuperación ante desastres, se producirán errores durante el proceso de aprendizaje. En 2025, veremos que la IA no es la panacea. Confiar en las máquinas para automatizar la recuperación ante desastres conducirá a errores.

“Se producirán graves violaciones de confianza y de cumplimiento a medida que las empresas aprendan por las malas que los humanos deben participar en el proceso de toma de decisiones de recuperación ante desastres”, declaró Straub