La verdadera pregunta no es qué puede hacer la inteligencia artificial, sino qué estamos dispuestos a dejar de hacer nosotros.
La verdadera pregunta no es qué puede hacer la inteligencia artificial, sino qué estamos dispuestos a dejar de hacer nosotros.

Por Matías Nahón, experto en fraude corporativo y autor del libro “El fraude en la Era Digital”
La creciente adopción de la inteligencia artificial (IA) en Argentina ha generado inquietudes sobre la posible prescindibilidad humana en el ámbito laboral. Aunque la IA promete mejoras en eficiencia y productividad, también plantea desafíos significativos, como la automatización de tareas que tradicionalmente realizaban las personas, lo que podría conducir a la pérdida de empleos y a una transformación profunda del mercado laboral.
En Argentina, el 11% de las empresas ya han incorporado tecnologías de IA en sus operaciones y un 28% adicional planea hacerlo en el corto plazo(*). Sin embargo, el 41% de los trabajadores argentinos percibe que sus empleadores están rezagados en la adopción de estas tecnologías, lo que indica una brecha entre la disponibilidad del potencial de la IA y su implementación efectiva.
Ya se observan casos concretos de reemplazo de tareas humanas: en la atención al cliente plataformas como Mercado Libre emplean chatbots para consultas, en el sector financiero se utilizan algoritmos para evaluar créditos y detectar fraudes, y en la industria manufacturera los robots automatizan líneas de producción. Incluso en sectores más especializados, como el legal, se recurre a sistemas de IA para revisar contratos y realizar investigaciones, funciones que antes dependían exclusivamente del análisis humano.
Si bien estas transformaciones pueden aumentar la productividad, también generan riesgos sociales al eliminar puestos de trabajo y perpetuar desigualdades si no se implementan de forma ética. La falta de transparencia en los algoritmos y el uso indebido de datos personales son desafíos adicionales que deben abordarse para garantizar que la IA beneficie a la sociedad en su conjunto.
Para mitigar estos riesgos, es esencial que el gobierno, las empresas y la sociedad civil trabajen en conjunto para desarrollar políticas y regulaciones que promuevan un uso ético y responsable de estas tecnologías. La educación y la formación continua serán claves para que la fuerza laboral argentina pueda adaptarse a nuevas oportunidades en un entorno laboral en constante cambio.
En resumen, aunque la IA tiene el potencial de transformar positivamente diversos aspectos de la sociedad, es fundamental enfrentar de manera proactiva los desafíos asociados para evitar la prescindibilidad humana y asegurar que la tecnología sea una herramienta al servicio del bienestar colectivo porque por más que la inteligencia artificial haya aprendido a imitar nuestro lenguaje con una fluidez asombrosa, todavía no sabe qué está diciendo.
Comprender no es juntar palabras. Comprender es situarlas en un mundo. Es entender por qué esa palabra y no otra. Qué la precede, qué la atraviesa, qué la vuelve necesaria. Una IA puede generar texto. Pero no puede preguntarse por qué lo hace. Y ahí reside una diferencia crucial.
Lo que hoy llamamos “inteligencia” artificial no nace de la experiencia, ni de una intención, ni de una conciencia. Nace de la estadística. De la correlación entre millones de fragmentos previos que fueron procesados para producir una frase probable. Probable, no verdadera. Verosímil, no comprendida. Esa distinción suele diluirse porque el resultado suena convincente, ordenado, incluso elegante. Pero el estilo no equivale al pensamiento.
En el trabajo cotidiano con estos sistemas, el límite aparece una y otra vez. Se les pide profundidad y entregan extensión recortada. Se les señala una tensión conceptual y la simplifican. Se les solicita análisis y devuelven resumen. No fallan por falta de información, sino por ausencia de criterio. Porque el criterio no es una regla ni una fórmula: es una capacidad activa de lectura del mundo. Es saber qué importa, qué sobra, qué debe decirse otra vez y qué no. Ese tipo de juicio no se automatiza porque no se calcula. Está tejido en la experiencia, en la memoria, en la sensibilidad frente a lo singular.
La inteligencia humana no se define solo por procesar datos, sino por la capacidad de detenerse ante ellos, evaluarlos y asumir las consecuencias. En esa pausa —ese margen entre estímulo y respuesta— nace la responsabilidad. Y ese margen no puede codificarse.
El problema no es que la inteligencia artificial se equivoque. El problema es que dejemos de percibir sus errores como errores. Que confundamos coherencia con verdad, fluidez con comprensión, automatización con sabiduría. Cuando eso ocurre, el riesgo ya no es técnico: es existencial. No porque la máquina piense, sino porque nosotros delegamos el acto de pensar.
Este desplazamiento del juicio ya se percibe en ámbitos concretos: sistemas de scoring que reemplazan evaluaciones humanas, algoritmos que ordenan currículums sin comprender trayectorias vitales, modelos predictivos que reproducen sesgos históricos bajo la apariencia de neutralidad. En contextos como el argentino, donde las instituciones arrastran fragilidades estructurales, automatizar decisiones no corrige desigualdades: las cristaliza.
La verdadera pregunta, entonces, no es qué puede hacer la IA, sino qué estamos dispuestos a dejar de hacer nosotros. Cuánta interpretación cedemos en nombre de la eficiencia. Cuánta responsabilidad delegamos para no cargar con la incertidumbre. Defender el juicio no es rechazar la tecnología, sino resistir la tentación de convertirla en criterio.
Mientras exista alguien capaz de decir “esto no alcanza”, “esto no cierra”, “esto no lo acepto”, habrá un margen de humanidad que ningún algoritmo puede ocupar. Ese margen —frágil, invisible, irrenunciable— es el lugar del juicio. El único que no puede simularse. El único donde todavía decidimos.
(*) Los datos surgen de la encuesta global C-Suite Outlook de The Conference Board (TCB), donde participaron directivos argentinos, a través de la organización empresarial IDEA).
Irán atacó con misiles Ras Laffan, la terminal de gas licuado más importante del mundo, provocando incendios y daños materiales en Qatar. El mercado energético reaccionó con alzas del 6% ante la ofensiva, que Teherán lanzó como represalia contra instalaciones regionales.
La jefa de inteligencia de EE. UU., Tulsi Gabbard, afirmó que el gobierno iraní permanece “intacto” aunque debilitado militarmente tras 19 días de intervención. Pese a la destrucción de sus fuerzas convencionales, advirtió que Teherán aún puede atacar intereses occidentales.
Un petrolero ruso sancionado transporta más de 700.000 barriles de crudo hacia Cuba para aliviar su crítica crisis energética. El envío, detectado por rastreadores marítimos, ocurre tras el cese de suministros de Venezuela y México bajo presiones del gobierno estadounidense.
El conjunto inglés se impuso por 4-1 en el resultado global.
Evangelina Anderson confirmó el quiebre definitivo de su relación con el entrenador Martín Demichelis tras 18 años de convivencia. La decisión, tomada a finales de 2025, incluyó el inicio de un proceso judicial de divorcio y acuerdos sobre la custodia de sus tres hijos.
Un joven manoseó a una mujer en la intersección de Andrade y Joaquín V. González durante la tarde del martes. El hecho generó indignación en Quilmes Oeste, donde vecinos reclamaron mayor presencia policial debido a la cercanía de un colegio.
Autoridades de Novosibirsk declararon estado de emergencia por brotes de rabia y pasteurelosis. Agricultores y científicos cuestionan la eliminación de miles de animales, mientras el Kremlin prioriza estándares sanitarios para asegurar exportaciones a China.
Gustavo López finalizó su vínculo con Laura Subise tras tres décadas de relación y dos hijos en común. La ruptura, confirmada en el programa LAM, se produjo por un desgaste gradual que incluyó dos crisis profundas en el último año.