Ultimamente si parla parecchio della possibilità di usare modelli linguistici come ChatGPT o GPT-4 per automatizzare qualsiasi cosa. Anche cose belle toste, tipo costruire un’ontologia da zero. Ma… aspetta: cos’è un’ontologia? E soprattutto, ha davvero senso affidare questo lavoro a un’intelligenza artificiale?
Proviamo a fare un po’ di chiarezza.
Detta semplice: un’ontologia è una specie di "mappa concettuale super strutturata". Serve a descrivere in modo preciso quali sono i concetti chiave di un certo argomento, come sono collegati tra loro e quali regole valgono tra questi concetti.
Ad esempio, se stiamo parlando di animali, un’ontologia ti dice che:
Queste relazioni non sono solo disegnini su un foglio: sono scritte in modo che anche un computer le capisca e possa usarle per ragionare o per mettere insieme dati da fonti diverse.
Ora, visto che modelli come GPT sono bravissimi a macinare testo, viene naturale chiedersi: non potremmo farci aiutare da un LLM per tirar su un’ontologia, invece di fare tutto a mano?
L’idea è affascinante. Se GPT può leggerti milioni di pagine e dirti che cosa si dice su “balena”, “mammifero” e “pesce”, magari può anche mettere insieme le definizioni giuste.
Ma… ecco il problema.
Ci sono almeno tre motivi principali per cui affidarsi solo a un’intelligenza artificiale per creare un’ontologia rischia di essere una mezza illusione:
Se oggi chiedi a GPT una cosa, domani potresti avere una risposta leggermente diversa. Questo perché il modello si basa sulle probabilità di quello che ha “letto” nei dati di addestramento, non su fatti scolpiti nella pietra.
Per un’ontologia, invece, la coerenza è fondamentale. Non puoi avere una regola che dice “la balena è un pesce” e poi un’altra che dice “no, è un mammifero”. E l’ontologia deve essere sempre la stessa, ogni volta che la usi.
Gli LLM sono campioni nel trovare pattern nelle parole, ma non hanno una vera comprensione dei concetti. Sanno che certe frasi si trovano spesso vicine, ma non sanno perché.
Un’ontologia invece è fatta proprio di significati precisi e di logica. Serve a ragionare sulle cose, non solo a descriverle a parole.
Se nei testi su cui il modello si è addestrato ci sono errori o ambiguità (e ci sono, fidati!), l’LLM rischia di portarsi dietro anche quelli.
Così magari ti spara che le balene sono pesci, solo perché l’ha letto in qualche post scritto male da qualcuno. 😅
No, anzi! Può essere super utile per alcune fasi:
Ma quando si tratta di definire bene i concetti, stabilire regole, assicurarsi che tutto sia logico e coerente… lì servono ancora le persone in carne e ossa.
Probabilmente, il futuro non sarà un LLM che fa tutto da solo, ma un gioco di squadra tra AI e umani.
Ci sono già alcuni tentativi in questa direzione: strumenti come Protégé, molto usato per costruire ontologie, stanno iniziando a integrare plugin basati su intelligenza artificiale per dare suggerimenti. Progetti come OntoGPT stanno esplorando come usare i LLM per supportare la fase di "drafting" delle ontologie, lasciando però la supervisione e la validazione finale alle persone.
L’AI potrebbe diventare il nostro assistente veloce e instancabile, capace di proporre idee e fare scouting tra milioni di testi, ma con noi a decidere quali mattoni usare e come metterli insieme.
Per ora, sembra proprio che serva ancora il tocco umano per costruire una buona ontologia. Ma chissà cosa ci riserva il futuro!
Resta aggiornato su tutte le novità di Nosco, i nostri eventi ed i nuovi articoli del blog.