Dra. María Luisa Valenzuela Valdés
Decana Facultad de Ingeniería
Universidad Autónoma de Chile
La inteligencia artificial (IA) puede aumentar la productividad y facilitar la innovación. Pero también desplazar empleos y ampliar la desigualdad afectando hasta al 40% de los empleos globales: 60% de ellos en países desarrollados y 26% en aquellos de renta baja. La educación, la capacitación y políticas laborales adaptativas serán esenciales.
El liderazgo debe transformarse para enfrentar la era de IA, blockchain y computación cuántica. Se debe enfatizar un liderazgo con empatía, inversión en talento humano y desarrollo continuo de habilidades. La innovación debe avanzar con cautela, con normas éticas claras y cultura de confianza.
Convertir activos en tokens digitales, en blockchain, abre oportunidades en sectores como finanzas, manufactura, agricultura y estudio científico del universo, aumentando la transparencia, trazabilidad y seguridad, además de democratizar el acceso a la inversión.
El despliegue de modelos de IA enfrenta retos de compatibilidad e infraestructura. Iniciativas como OpenXLA buscan estandarizar y facilitar la portabilidad en distintos entornos de hardware, mejorando productividad y accesibilidad para los desarrolladores.
La IA y la tokenización también impactan la exploración espacial: desde el control autónomo de naves hasta la gestión de datos satelitales. Se busca un uso del espacio más inclusivo y sostenible, con la participación de actores públicos y privados.
La creciente incorporación de sistemas autónomos e IA en la ingeniería ha cambiado nuestras prácticas y expectativas de manera significativa. Sin embargo, también nos lleva a reflexionar sobre cómo podemos construir tecnologías que sean seguras y responsables. En mis laboratorios, así como en charlas con colegas de la industria, he visto ejemplos que ilustran ambos extremos: por un lado, soluciones que mejoran la calidad de vida y, por otro, fallos que podrían haberse evitado con protocolos más sólidos.
La seguridad es, sin duda, nuestra prioridad. Un error en un controlador industrial o en el software de un vehículo autónomo no es sólo un fallo técnico; puede tener consecuencias graves para las personas y los bienes. Por eso, siempre insisto en que los proyectos de ingeniería deben incluir desde el principio pruebas de validación, auditorías externas y planes de mantenimiento que contemplen actualizaciones algorítmicas. Aunque no existe un riesgo cero, sí tenemos la responsabilidad de reducirlo a través de un diseño cuidadoso y una supervisión constante.
La cuestión de la responsabilidad es más complicada: cuando un sistema autónomo falla, ¿quién es el responsable? Creo que la responsabilidad debería distribuirse de manera proporcional entre diseñadores, empresas y operadores, y esto requiere marcos legales claros. Además, es fundamental que los sistemas sean explicables: si una decisión automatizada afecta a una persona, debe ser comprensible por qué se tomó y quién la autorizó.
La ética nos lleva a otro nivel: justicia, transparencia y respeto por los derechos. No se trata sólo de eficacia técnica; debemos anticipar los impactos sociales y ambientales. En la formación de ingenieros tenemos la obligación de incluir estos temas en el currículo: estudios de caso, ética aplicada y práctica interdisciplinaria, que integren humanidades y Derecho.
La adopción responsable de la IA no debe verse como un obstáculo para la innovación, sino como una condición para su sostenibilidad. Si diseñamos sistemas que sean seguros, auditables y guiados por principios éticos, la tecnología podrá cumplir su promesa: mejorar procesos y proteger a las personas. El futuro dependerá de liderazgos éticos, marcos regulatorios claros, cooperación internacional y una apuesta decidida por la formación y el capital humano.