Machine Learning e dati rumorosi: WSCL 2024
Weakly Supervised and Cautious Learning (WSCL)
Quest’anno a Santiago de Compostela si è tenuta la 27ª edizione della European Conference on Artificial Intelligence (ECAI), uno degli eventi più prestigiosi nel panorama della ricerca sull’Intelligenza Artificiale. La conferenza, che ha visto la partecipazione di ricercatori, professionisti e accademici di fama internazionale, rappresenta un’importante opportunità per discutere le sfide e le innovazioni in un campo in continua evoluzione.
Durante la conferenza si è tenuto il workshop Weakly Supervised and Cautious Learning (WSCL). Questo workshop ha offerto un’importante occasione per esplorare ed affrontare alcune delle sfide più complesse che emergono nelle applicazioni del machine learning (ML) in contesti reali.
Il workshop, coordinato da un gruppo di esperti, ha visto la partecipazione del professor Davide Ciucci, Professore ordinario presso il Dipartimento di Informatica, Sistemistica e Comunicazione dell’Università degli Studi di Milano-Bicocca e Principal Investigator del progetto ReGAInS.
Negli ultimi anni, il Machine Learning è stato sempre più applicato in vari contesti, grazie alla sua capacità di analizzare grandi volumi di dati, migliorare l’accuratezza decisionale e ridurre il carico di lavoro umano. Tuttavia, questi sistemi si basano sul paradigma dell’apprendimento supervisionato, che presuppone la disponibilità di grandi quantità di dati etichettati in modo affidabile da esperti. La realtà del mondo reale, però, è ben diversa da queste condizioni ideali; i dati possono essere incompleti o rumorosi, la supervisione può essere costosa o inaffidabile, e i modelli di Machine Learning possono fallire nel trasmettere efficacemente le loro incertezze agli utenti, riducendo la fiducia.
Di conseguenza, si è sviluppato un crescente interesse per tecniche che affrontino queste problematiche, tra cui:
- Quantificazione dell’incertezza e apprendimento cauto, dove i modelli di Machine Learning trasmettono le proprie incertezze per migliorare affidabilità e ridurre bias cognitivi;
- Apprendimento supervisionato debole e le sue varianti, come:
- Supervisione incompleta: solo una parte dei dati di addestramento è etichettata;
- Supervisione imprecisa: i dati sono etichettati in modo grossolano;
- Supervisione inaccurata: le etichette non sono sempre corrette.
Allo stesso tempo, si è intensificato il dialogo tra il Machine Learning e discipline affini, come la rappresentazione della conoscenza e dell’incertezza, l’interazione uomo-macchina, il crowd-sourcing e l’apprendimento attivo.
L’obiettivo del workshop WSCL è quello di esplorare come il machine learning e i metodi correlati possano gestire supervisioni deboli e fornire supporto più cauto e affidabile in presenza di imperfezioni nei dati.
Tutto questo risulta essere perfettamente in linea con gli obiettivi del progetto ReGAInS che mira proprio a sviluppare tecnologia di Intelligenza Artificiale che siano comprensibili e trasparenti.
Lascia un commento