Intelligenza artificiale e nutrizione nell'UE: tre framework, un solo prodotto

Quando un team di sviluppo lancia una funzione di raccomandazione nutrizionale personalizzata, raramente si chiede quante leggi stia toccando contemporaneamente. Eppure, quella singola funzionalità, un motore di suggerimento dietetico, un chatbot che risponde a domande su integratori, una dashboard di evidence mining, può attivare obblighi sovrapposti derivanti da almeno tre grandi framework normativi europei. Comprenderli separatamente non basta più: la sfida, oggi, è governarli insieme.

Alessandro Drago

Il panorama normativo

L'EU AI Act e la logica del rischio

Entrato in vigore il 1° agosto 2024 e pienamente applicabile dal 2 agosto 2026, il Regolamento (UE) 2024/1689, comunemente noto come EU AI Act, ha introdotto il primo quadro normativo orizzontale dedicato ai sistemi di intelligenza artificiale nell'Unione Europea. Il suo meccanismo centrale è la classificazione per livelli di rischio: vietato, alto rischio, rischio limitato e rischio minimo. I sistemi ad alto rischio sono quelli che operano come componente di sicurezza di un prodotto regolamentato, ad esempio sotto il Regolamento sui dispositivi medici (MDR) o il Regolamento sui dispositivi diagnostici in vitro (IVDR), oppure quelli esplicitamente elencati nell'Allegato III, che comprende diversi casi d'uso in ambito sanitario e scienze della vita.

Per le applicazioni nutrizionali consumer, la posizione nello spazio normativo dipende in modo decisivo dall''uso dichiarato. Un'app che offre consigli sullo stile di vita rientra tipicamente nella fascia a rischio limitato; la stessa app, se integrata con dispositivi medici o se orienta decisioni diagnostiche e terapeutiche, scala direttamente verso l'alto rischio. Anche al di fuori di questa soglia, qualsiasi sistema che interagisce direttamente con i consumatori è tenuto a rispettare i requisiti dell'AI Act in materia di trasparenza, supervisione umana e tutela dei diritti fondamentali.

Il regolamento sulle indicazioni (NHCR)

Il Regolamento (CE) n. 1924/2006 sulle indicazioni nutrizionali e sulla salute, in vigore da quasi vent'anni e ancora pienamente operativo, stabilisce le condizioni entro cui è lecito comunicare benefici legati ad alimenti e integratori nell'etichettatura, nella presentazione o nella pubblicità. Il principio di fondo è semplice: solo le indicazioni autorizzate possono essere usate, nelle condizioni specificamente previste, e qualsiasi claim deve essere supportato da prove scientifiche consolidate.

Il Registro UE delle indicazioni nutrizionali e sulla salute, gestito dalla Commissione europea, è diventato il riferimento operativo de facto per chiunque voglia comunicare in modo conforme. La questione che emerge nell'era dell'AI generativa è che un sistema capace di produrre linguaggio naturale può generare, senza alcuna intenzione esplicita del team marketing, affermazioni funzionalmente equivalenti a un health claim, con tutte le implicazioni normative che ne conseguono.

Le aspettative scientifiche dell'EFSA

L'EFSA rimane il corpo di riferimento per i pareri scientifici che alimentano le politiche di sicurezza alimentare e la valutazione delle indicazioni sulla salute nell'UE. Le sue aspettative metodologiche, trasparenza dell'evidenza, sistematicità nell'appraisal degli studi, robustezza interpretativa, definiscono lo standard per ciò che si intende per indicazione "adeguatamente sostanziata".

Dal 2020, l'EFSA ha avviato un percorso strutturato di integrazione dell'AI nei propri processi interni, formalizzato nella roadmap AI del 2022, con un orizzonte applicativo al 2027. L'obiettivo dichiarato è costruire basi di evidenza più accessibili, ampie e affidabili attraverso strumenti come lo screening automatizzato della letteratura, la strutturazione ontologica dei dati e il ranking per rilevanza, sempre sotto supervisione esperta. Il modello adottato dall'EFSA non è automazione ma augmentazione: l'AI amplifica le capacità cognitive degli esperti, non le sostituisce. Questo principio è un riferimento diretto anche per gli attori privati che sviluppano nutrition AI e vogliono posizionarsi come scientificamente rigorosi.

I principali casi d'uso

Motori di raccomandazione personalizzata

Questi sistemi raccolgono dati dell'utente, età, stile di vita, obiettivi, preferenze alimentari, talvolta output da sensori come glucometri o activity tracker, per generare consigli dietetici, target di macronutrienti, selezioni di integratori o nudge comportamentali. Sono i prodotti più diffusi nel mercato della nutrition AI consumer, e sono anche quelli che generano maggiore esposizione normativa composita.

Sul fronte AI Act, chatbot e recommendation engine rivolti agli utenti devono rispettare almeno i requisiti di trasparenza e supervisione umana; la classificazione ad alto rischio scatta quando il sistema è integrato con dispositivi medici o assume funzioni diagnostiche. Sul fronte NHCR, qualsiasi output che descriva o implichi effetti benefici sulla salute, anche in forma conversazionale e personalizzata, deve allinearsi alle indicazioni autorizzate e alle relative condizioni d'uso. La sostanziazione scientifica della logica di raccomandazione dovrebbe infine riflettere i valori dietetici di riferimento EFSA e i pareri scientifici pubblicati, specialmente quando le indicazioni si avvicinano alla soglia della riduzione del rischio di malattia.

Nutrizione basata su biomarcatori o test genetici

I servizi che combinano profili di laboratorio, microbioma o test genetici con interpretazione algoritmica producono piani nutrizionali altamente personalizzati, ma al costo di avvicinarsi in modo significativo allo spazio diagnostico. Quando le raccomandazioni toccano la prevenzione, il trattamento o la gestione di condizioni patologiche, anche in modo implicito, il sistema entra nell'orbita di MDR/IVDR e quindi, per trascinamento, nell'alto rischio dell'AI Act.

In questi casi, le obbligazioni si moltiplicano: sistema di gestione della qualità, documentazione tecnica completa, valutazione della conformità, monitoraggio post-market, governance robusta dei dati. Sul piano della comunicazione, la separazione netta tra indicazioni per il mantenimento generale della salute e qualsiasi messaggio connesso a patologie non è solo buona pratica: è un requisito normativo. La sostanziazione scientifica deve raggiungere la profondità e il rigore di un dossier EFSA, con revisione sistematica delle evidenze e gerarchia degli studi esplicitamente documentata.

Evidence engine B2B per lo sviluppo di prodotto

Una terza categoria di strumenti opera in back-office: piattaforme che estraggono e strutturano letteratura scientifica, pareri EFSA e database normativi per supportare decisioni di formulazione, valutazioni del rischio e strategie di claim. Questi sistemi, tra cui si inserisce la vocazione di Nutri-AI, non generano output consumer, ma influenzano decisioni con potenziale impatto sulla sicurezza e sulla conformità dei prodotti finali.

L'AI Act si applica anche qui, benché spesso in forma meno stringente: strumenti a uso interno possono configurarsi come a rischio minimo, ma diventano ad alto impatto se utilizzati come supporto primario per decisioni di go/no-go regolatorio. La qualità dei dati in ingresso è determinante: i pipeline dovrebbero basarsi preferenzialmente sul Registro UE delle indicazioni, sui pareri scientifici EFSA e sui valori di riferimento dietetici ufficiali, evitando di propagare evidenze obsolete o non conformi nelle strategie di prodotto.

Le zone grigie

Wellness o supporto medico?

La distinzione tra guidance nutrizionale generale e supporto decisionale medico è la zona grigia più frequentata, e più rischiosa, dell'intero settore. Un chatbot che suggerisce pasti equilibrati rientra chiaramente nel dominio wellness; un sistema che adatta dosaggi di integratori in pazienti con condizioni cliniche specifiche sulla base di marcatori ematici entra nel perimetro MDR/IVDR, e quindi nell'alto rischio dell'AI Act.

Il punto critico non è dove cade il prodotto nella realtà del suo funzionamento, ma dove viene posizionato dal marketing. Comunicazioni ambigue che alludono alla gestione di patologie senza adottare il corrispondente framework regolatorio rappresentano un rischio concreto, sia per i regolatori che per gli investitori in fase di due diligence.

Claims dinamici e responsabilità diffusa

Un modello generativo addestrato senza vincoli specifici può produrre affermazioni come "riduce il rischio di malattia cardiovascolare" per un botanico per cui sono autorizzate solo indicazioni sulla circolazione generale, senza che nessuno nel team abbia scritto quella frase. Il NHCR non distingue tra claim statici in etichetta e output conversazionali: l'esposizione normativa esiste in entrambi i casi.

Chi risponde di questi output in tempo reale, il fornitore del modello, l'operatore dell'applicazione, o entrambi, rimane una questione aperta che i regolatori europei non hanno ancora risolto in modo definitivo. In attesa di chiarimenti, la soluzione tecnica più efficace è vincolare la generazione a librerie di claim autorizzati o implementare layer rule-based che hard-codificano le formulazioni conformi attorno al core generativo.

Evidenza scientifica nell'era generativa

L'AI accelera enormemente la sintesi delle evidenze: screening di migliaia di pubblicazioni in minuti, ranking per rilevanza, identificazione di gap nelle review. Ma introduce anche rischi strutturali che chi sviluppa nutrition AI non può ignorare, come dati di training non rappresentativi, ragionamenti opachi e allucinazioni fattuali. Un sistema che dichiara di essere "evidence-based" o "EFSA-aligned" deve essere in grado di dimostrarlo: fonti dei dati documentate, validazione rispetto a riferimenti autorevoli, traccia chiara di ogni aggiornamento del modello.

Il modello EFSA, con AI a supporto della discovery e giudizio scientifico finale sempre umano, è il template più solido disponibile oggi per chi vuole costruire credibilità scientifica nel settore.

Implicazioni operative

Mappatura tri-dimensionale dal giorno zero

Per ciascuna funzionalità del prodotto, la domanda da porsi non è "siamo conformi?" ma "su quale asse normativo stiamo operando?". La risposta richiede di mappare esplicitamente, fin dalle prime fasi di progettazione:

  • la classificazione AI Act (vietato / alto rischio / limitato / minimo) in funzione dell'intended purpose e dell'eventuale connessione a MDR/IVDR o ai casi d'uso dell'Allegato III

  • l'esposizione NHCR, con identificazione dei punti in cui gli output dinamici potrebbero essere interpretati come indicazioni nutrizionali o sulla salute, mappati sul Registro UE

  • la strategia di sostanziazione scientifica, con gerarchia delle fonti esplicitamente dichiarata, inclusi pareri EFSA e raccomandazioni dietetiche ufficiali

Compliance-by-design come scelta architettuale

La conformità normativa non si aggiunge a un prodotto a posteriori: si costruisce nell'architettura del sistema fin dall'inizio. In concreto, questo significa:

  • generazione claim-aware: vincolare i modelli a librerie di indicazioni autorizzate con separazione netta tra contenuto educativo, claim di prodotto e contenuto clinico

  • explainability e tracciabilità: mantenere log che collegano ogni raccomandazione alle fonti dati e alle regole applicate, in linea con i requisiti AI Act

  • data governance robusta: dataset di training rappresentativi, aggiornati e validati, specialmente per popolazioni vulnerabili o use case ad alto impatto

  • human-in-the-loop: revisione esperta per ogni modifica significativa alla logica di raccomandazione o alle basi di evidenza, replicando il modello di augmentation EFSA

Due diligence per investitori

Gli investitori che valutano venture nel settore nutrition AI farebbero bene a integrare la readiness normativa nella due diligence standard. Le domande da porre non sono formali, sono sostanziali:

  • il razionale d'uso è definito con precisione sufficiente da localizzare il prodotto rispetto al confine AI Act/MDR/IVDR?

  • esiste una strategia di claim documentata allineata con NHCR e Registro UE, incluso un processo di monitoraggio degli output generati dall'AI?

  • le pipeline di evidenza sono ancorati a fonti autorevoli, pareri EFSA, dietary reference values ufficiali, con un piano di adattamento alle linee guida evolutive?

Le aziende in grado di rispondere strutturalmente a queste domande non stanno solo gestendo il rischio regolatorio: stanno costruendo un vantaggio competitivo in un mercato dove l'enforcement è destinato a diventare sempre più sistematico.

#NutriAI #NutriAINewsletter #IntelligenzaArtificiale #AI #Nutrizione #ComunicazioneScientifica #FoodTech #SicurezzaAlimentare #RegolamentoAI #EFSA #ConformitàNormativa #ISO42001 #HealthClaims #InnovazioneDigitale #AIResponsabile #TrasparenzaAI #Governance #DataScience #ComplianceAlimentare #NutrizioneDigitale #FoodLaw #RischioAltoAI #TrustInAI #AINews #ScientificCommunication #EUAIAct #MedicalEducation #AIliteracy #ContinuingEducation #Dietitians #Nutritionists #LargeLanguageModels #AIAct #ClinicalDecisionSupport #DigitalHealth #Nutrition

Disclaimer: Tutti i diritti delle immagini e contenuti utilizzati appartengono ai rispettivi proprietari. Questo articolo è fornito a scopo educativo e informativo. Non costituisce consulenza legale o normativa. Le organizzazioni dovrebbero consultare esperti legali e normativi qualificati prima di implementare sistemi di IA nel settore nutrizionale.

--------------------------------------------------------------------------

Riferimenti bibliografici

  • Regolamento (UE) 2024/1689 (EU AI Act). In vigore dal 1° agosto 2024; pienamente applicabile dal 2 agosto 2026. Commissione europea

  • Regolamento (CE) n. 1924/2006 (NHCR). Indicazioni nutrizionali e sulla salute sugli alimenti. Testo consolidato

  • EU AI Act, Allegato III — Sistemi AI ad alto rischio (art. 6). Testo ufficiale

  • EFSA (2022). Update on EFSA AI roadmaps about risk assessment (EN-7339). PDF EFSA

  • EFSA (2025). Programming document 2025–2027. PDF EFSA

  • EFSA. AI@EFSA — pagina dedicata all'esplorazione dell'AI in EFSA dal 2017. efsa.europa.eu

  • Barizzone F. et al. (2024). Introducing AI in EFSA systematic reviews. ECETOC Workshop. PDF ECETOC

  • De Groote W. et al. (2024). The EU Artificial Intelligence Act (2024): implications for healthcare. Health Policy, 149. ScienceDirect

  • Klonner M. et al. (2024). Navigating the European Union Artificial Intelligence Act for healthcare. npj Digital Medicine, 7:218. Nature

  • Osborne Clarke (2025). European Commission consultation shapes high-risk AI classification in life sciences. osborneclarke.com

  • Drago A. (2025). How the EU AI Act is transforming nutrition applications. LinkedIn Pulse. LinkedIn

  • Drago A. (2025). AI in scientific evidence: the risk assessment revolution at EFSA. LinkedIn Pulse. LinkedIn

  • DPO Consulting (2025). High-risk AI systems under the EU AI Act. dpo-consulting.com

  • UK Government / FSA (2021). Nutrition and health claims: guidance to compliance with Regulation (EC) 1924/2006. gov.uk

  • Università di Parma / foodforfuture (2024). Botanical substances and health claims: an awaited judgment. foodforfuture.unipr.it