El valor profesional no está en producir, sino en cuestionar a la IA
El analista en tecnología Bruno Magnano adviertió sobre los peligros de delegar el pensamiento crítico en modelos de IA y plantea un cambio de paradigma: del hacer al validar.
En un contexto donde la Inteligencia Artificial (IA) irrumpe con fuerza en todos los sectores productivos, la capacidad de generar código en milisegundos ha instalado una percepción engañosa de eficiencia total. Sin embargo, para Bruno Magnano —ingeniero en sistemas, analista en negocios y tecnología y co-creador de la Comunidad de Innovación e Inteligencia Artificial en LATAM (CIIAL), que reúne a más de 200 científicos de datos— esta revolución no implica necesariamente una mejora en la calidad profesional.
“La IA no está reemplazando al talento; está exponiendo a quienes renunciaron a pensar por sí mismos”, sostuvo Magnano y advitió que el verdadero cambio no es tecnológico, sino cultural.
El especialista señaló que estamos transitando de una economía basada en la ejecución a una centrada en la validación. En este nuevo escenario, el valor del profesional ya no reside únicamente en lo que produce, sino en su capacidad para cuestionar, auditar y corregir lo que las máquinas generan.
“La obsolescencia no será para quienes no sepan programar, sino para quienes no sepan interpretar y desafiar los resultados”, explicó, quien además es CEO de Rocbird.
Uno de los puntos más críticos que identificó Magnano es la falsa confianza en los modelos de lenguaje. “El mayor peligro no es la automatización, sino la negligencia profesional derivada de confiar ciegamente en sistemas que no garantizan veracidad”, afirmó. En este sentido, recordó que la IA funciona como una “máquina de probabilidad”, cuya arquitectura prioriza la coherencia narrativa antes que el rigor factual.
Este fenómeno tiene consecuencias concretas en el desarrollo tecnológico. Integrar código generado por IA sin comprender su lógica no solo implica una ganancia de tiempo inmediata, sino también la acumulación de deuda técnica a largo plazo. “La ‘alucinación’ del software no es un error técnico; es una advertencia ética para el usuario”, subrayó.
El rol del espíritu crítico
Frente a la proliferación de agentes autónomos y modelos de razonamiento, Magnano planteó la necesidad de fortalecer lo que define como “soberanía humana”. Esto implica ejercer una duda metódica operativa: cuestionar no solo las soluciones propuestas por la IA, sino también los escenarios de fallo y las alternativas descartadas.
A esto se suma la “soberanía del contexto”. Según el analista, los modelos globales tienden a ignorar las particularidades locales, lo que puede derivar en decisiones ineficientes o incluso perjudiciales. “Un dato solo se convierte en información valiosa cuando se interpreta bajo las condiciones específicas de una región o sector”, explicó.
Otro eje central es la auditoría del razonamiento, conocida como Chain of Thought. Con la evolución de modelos que simulan procesos lógicos complejos, el desafío ya no es solo verificar resultados, sino analizar el método que los genera. “Un razonamiento defectuoso que llega a un resultado correcto sigue siendo un riesgo latente”, advirtió.
Responsabilidad indelegable
Magnano enfatizó que el juicio humano sigue siendo el factor determinante. La responsabilidad sobre el riesgo, la toma de decisiones y la dirección estratégica no puede ser transferida a un algoritmo.
“Más que celebrar lo que la IA puede hacer por nosotros, debemos preguntarnos si somos lo suficientemente críticos para administrar el poder que estas herramientas nos otorgan”, concluyó.


