El EcosystemTalk celebrado el miércoles 30 en el HUB Madrid, bajo el título «IAG: Revolución o simple evolución», fue un punto clave de reflexión sobre una tecnología imparable y en expansión, que despierta interrogantes en múltiples ámbitos. Una tecnología que el gobierno de Estados Unidos acaba de declarar como tema de seguridad nacional para liderar su avance.
Conducido por el CTO de atmira, Iñigo Sanz, el evento contó con dos expertos de gran relevancia: Jorge Valenzuela, Head of AI en Microsoft, y José Raúl Romero, director de la Cátedra atmira y profesor titular del Departamento de Informática y Análisis Numérico en la Universidad de Córdoba.
Durante la charla, en un tono ameno y participativo, se abordaron múltiples temas, entre ellos los retos y oportunidades que la Inteligencia Artificial Generativa (IAG) plantea para las empresas, el papel que debe asumir el mundo académico, los cambios profesionales que implicará y los escenarios de futuro que pueden esperarse en los próximos años.
Desafíos de la IA en el ámbito corporativo
La falta de personal calificado se señaló como uno de los mayores desafíos para la implementación de inteligencia artificial (IA) en el ámbito empresarial. Sin un equipo especializado que guíe estos proyectos, muchas organizaciones enfrentan retrasos y limitaciones en su capacidad para aprovechar los beneficios que esta tecnología puede ofrecer.
Durante el Ecosystem Talk, se apuntó que el acercamiento de las empresas hacia la IA varía notablemente: mientras algunas ya están experimentando retornos claros, otras aún contemplan con cautela si esta tecnología será una herramienta sostenible o simplemente una moda pasajera. Para maximizar su impacto, se recomendó a las organizaciones evitar el entusiasmo desmedido y concentrarse en estrategias bien definidas, buscando el asesoramiento adecuado cuando sea necesario.
Además, se comentó que la incorporación de IA en el entorno laboral plantea desafíos específicos. Sin un marco regulador claro, el fenómeno del “Shadow AI” —empleados que utilizan herramientas de inteligencia artificial no autorizadas para aumentar su productividad— se convierte en un riesgo creciente. Esta práctica puede derivar en problemas de seguridad, especialmente si los datos utilizados en los modelos pertenecen a empresas externas sin una política de manejo de datos establecida. Como mencionó Jorge Valenzuela, “si una compañía prohíbe usar IA, los empleados encontrarán formas de hacerlo igualmente”, lo que apunta a la necesidad de adoptar medidas que regulen su uso sin obstaculizar los beneficios que puede ofrecer en términos de eficiencia y productividad.
Valentía y visión empresarial para la IAG
Iñigo Sanz destacó la necesidad de un enfoque integral en la adopción de la IAG: “Se necesita valentía para aplicar la IAG de forma coherente y completa. No basta con implementarla en una sola área o limitarla a unos pocos empleados; se trata de universalizar su uso en toda la empresa. Es crucial comprometerse plenamente, manteniendo el equilibrio”.
Jorge Valenzuela subrayó la importancia de una integración consciente: “Estamos alentando a las empresas a adoptar la IA formalmente. Sin una adopción controlada, los empleados tienden a usarla de manera independiente, lo que incrementa el riesgo de un uso descontrolado. Es mejor adoptar y controlar la IA; de lo contrario, su uso puede convertirse en un problema oculto”.
Perspectiva académica y pensamiento crítico
Se apuntó a la brecha de adopción en el ámbito universitario, donde el alumnado adopta la inteligencia artificial (IA) rápidamente, mientras que el profesorado aún carece de políticas unificadas. Durante el Ecosystem Talk, se comentó que sería ideal un enfoque unificado, formativo y no restrictivo para el uso de la IA en el contexto educativo, dado que la IA generativa es una tecnología transversal cuya democratización y adopción resultan necesarias en sectores diversos, no solo en el ámbito de IT.
José Raúl Romero aportó una perspectiva académica sobre el rol del pensamiento crítico en el uso de la IA generativa (IAG): “No involucrar estas tecnologías sería un error. La IA puede programar mejor que una persona, pero sus respuestas a veces llevan sesgos camuflados. Necesitamos profesionales con pensamiento crítico para detectar estos sesgos y errores”.
El encuentro concluyó con un animado debate con el público que lanzó varias preguntas a los ponentes. Desde cómo adoptar la IAG en una PYME, a cómo gestionar los riesgos de seguridad que entraña la IA hasta una pregunta que sorprendió. ¿Debe mencionarse en un CV que se utiliza Chat GpT a diario? “Si eres bueno y más productivo y aportas un valor, ponlo porque probablemente te diferencia. Formarse en IAG es hoy en día un valor diferencial en el mundo laboral”, recomendó Sanz.
“Es una tecnología nueva en la que todo partimos del mismo punto, estamos en un punto de la historia en la que cualquiera pueda aprender y veremos su impacto en los próximos años”, añadió Valenzuela.