a búsqueda de soluciones rápidas para adelgazar ha llevado a miles de adolescentes a reemplazar la consulta médica por pedidos directos a sistemas de IA. Sin embargo, una investigación publicada en Frontiers in Nutrition pone una señal de alarma: las dietas generadas por plataformas como ChatGPT, Gemini o Bing para jóvenes de 15 años son nutricionalmente inadecuadas.
El análisis de la Universidad Atlas de Estambul detectó que estos planes no solo fallan en el cálculo energético, sino que imponen proporciones peligrosas de macronutrientes. La tendencia general de la IA es proponer un exceso de proteínas y grasas en detrimento de los carbohidratos, ignorando las guías de salud internacionales.
Deficiencias detectadas en planes de IA
| Factor Nutricional | Hallazgo del Estudio | Riesgo para el Adolescente |
| Ingesta Calórica | Déficit de ~700 kcal diarias | Afecta el metabolismo y el crecimiento. |
| Macronutrientes | Exceso de proteínas y grasas | Sobrecarga renal y desequilibrio de pH. |
| Micronutrientes | Falta de Calcio y Vitamina D | Debilidad ósea y osteoporosis prematura. |
| Contexto Clínico | Ausente | No contempla historial médico ni emocional. |
La doctora Marisa Armeno, especialista de la Sociedad Argentina de Nutrición (SAN), explicó que la IA carece de “razonamiento clínico”. La nutrición en esta etapa no es una suma matemática de calorías; requiere considerar el ritmo de maduración puberal y el contexto familiar, algo que un algoritmo no puede procesar.
Consecuencias físicas a largo plazo
El uso de estas dietas “fitness” generadas por código puede comprometer la estatura final y la densidad de los huesos. Según la investigadora Natalia Lates, una ingesta energética insuficiente en la adolescencia aumenta drásticamente el riesgo de fracturas en la adultez. Además, el exceso de proteínas sin equilibrio mineral puede debilitar el esqueleto en lugar de fortalecerlo.
Desde la Sociedad Argentina de Nutrición son enfáticos: si bien la IA es una herramienta útil para que los profesionales agilicen tareas administrativas o analicen grandes bases de datos, nunca debe ser el prescriptor final. La “ilusión de precisión” de estos modelos puede generar textos convincentes que esconden errores médicos graves.