Mientras en muchas regiones del mundo persiste el debate sobre si los estudiantes deben o no utilizar inteligencia artificial (IA) generativa en sus tareas, algunas universidades en China han optado por un enfoque transformador: incorporar activamente su uso como parte del currículo. Esta estrategia busca no solo facilitar el acceso a herramientas de vanguardia, sino también formar a los estudiantes en su uso ético, crítico y consciente. En lugar de temer a la dependencia, se busca empoderar a una nueva generación con capacidades tecnológicas alineadas con el pensamiento sistémico y la responsabilidad digital.
Este giro educativo contrasta marcadamente con debates globales sobre la automatización y el riesgo de pérdida de habilidades analíticas fundamentales en los jóvenes. Sin embargo, también pone en evidencia una necesidad apremiante: las decisiones tecnológicas no pueden desvincularse de consideraciones éticas y sociales más amplias. Esto queda en relieve cuando se examinan los sistemas de bienestar impulsados por algoritmos, que si bien prometen eficiencia y personalización, también han demostrado reproducir inequidades preexistentes, y en algunos casos, exacerbar la exclusión social por errores de diseño o sesgos de datos.
Desde una perspectiva de sustentabilidad y triple impacto, esta evolución nos obliga a preguntarnos no solo cómo usamos la IA, sino para qué y con qué resultados. Formación crítica, diseño con conciencia y políticas regulatorias rigurosas son claves para no reproducir viejos errores con nuevas herramientas. ¿Puede la IA ser un motor de equidad y regeneración si se la integra desde una visión sistémica y ética? La conversación recién comienza, y tu perspectiva puede enriquecerla.
