86% de los estudiantes de educación superior emplean herramientas de IA
En el marco del Institute for the Future of Education (IFE) edición 2025 celebrado en la Ciudad de Monterrey, Nuevo León, Ken-Ichiro Natsume, afirmó que la GenIA contribuye significativamente al crecimiento económico anual alcanzando una cifra de 4.4 miles de millones de dólares.
El alcance de esta tecnología es notable; ChatGPT, una de las herramientas más populares de IA generativa, cuenta con 300 millones de usuarios semanales y ha registrado más de 10 millones de suscripciones de pago. Además, su uso se ha extendido a la educación pues, de acuerdo con el panelista, actualmente el 86% de los estudiantes de educación superior emplean herramientas de IA para realizar tareas académicas,
Frente a este escenario, y para promover la adopción y el uso responsable de la IA en la educación en las universidades, el Tecnológico de Monterrey anunció la creación de la Red Global de Educación en Inteligencia Artificial (AIGEN) y puso a disposición de las universidades TECgpt, su ecosistema de inteligencia artificial generativa.
La AIGEN tiene como objetivo catalizar las aplicaciones de IA en las universidades, facilitando la adopción de herramientas y plataformas de IA. “Piensen en AIGEN como una red de universidades que tienen un interés en común: avanzar y adoptar IA, así que no están dictando los estándares, sino que están compartiendo y creando los estándares y haciendo recomendaciones para su adopción”, destacó Michael Fung, director ejecutivo del Instituto para el Futuro de la Educación del Tecnológico de Monterrey.
La Inteligencia Artificial Generativa es una de las tecnologías más influyentes de nuestro tiempo, con un impacto que abarca desde la economía hasta la educación y la creatividad. No obstante, su uso debe ir acompañado de medidas de seguridad y regulaciones que garanticen la privacidad, la ética y la protección de la propiedad intelectual. La clave está en encontrar el equilibrio entre la innovación y la responsabilidad.
Para mitigar estos riesgos, Natsume recomienda, revisar y ajustar la configuración de privacidad de la herramienta utilizada, utilizar aplicaciones privadas basadas en la nube que ofrezcan mayor control sobre los datos y limitar el acceso a la información compartida con modelos de IA.