Siamo entusiasti di annunciare la partecipazione del team di SciamLab all'ultimo Liquid AI Hackathon, un evento che ci ha spinto a esplorare nuove frontiere nell'applicazione dell'intelligenza artificiale per la salvaguardia del territorio.

Per l'occasione, abbiamo sviluppato LEWS (Landslide Early Warning System), un innovativo sistema di allerta rapida per le frane basato sui modelli Vision-Language di ultima generazione.

 

La Sfida: Prevenire il Rischio Idrogeologico

Le frane e gli smottamenti rappresentano una delle minacce naturali più devastanti, causando ogni anno ingenti danni infrastrutturali e perdite di vite umane. La sfida principale nella gestione del rischio idrogeologico è il fattore tempo: identificare i segnali premonitori prima che il disastro si verifichi è estremamente complesso e richiede un monitoraggio visivo costante e accurato.

Ci siamo chiesti: possiamo addestrare un'IA a riconoscere i pattern multispettrali che precedono una frana, automatizzando e velocizzando i sistemi di allerta?

 

La Nostra Soluzione: Il Fine-Tuning di LFM-2.5-VL

Ispirati dai recente PoC nell'uso dell'IA per la prevenzione degli incendi boschivi, abbiamo deciso di applicare un approccio simile al rischio idrogeologico.

Il cuore del nostro progetto è il fine-tuning del modello Liquid Foundation Model (LFM) 2.5 Vision-Language da 450M di parametri (lfm2.5-vl-450m). Abbiamo raccolto ed etichettato un dataset specializzato di immagini satellitari, rilevamenti da droni e telecamere fisse, addestrando il modello a classificare e segnalare anomalie nel terreno, crepe, alterazioni della vegetazione e accumuli sospetti di detriti.

Il risultato è un modello altamente specializzato e leggero, rilasciato pubblicamente sulla nostra pagina HuggingFace: Sciamlab/LFM2.5-VL-450M-landslide-GGUF. L'utilizzo del formato GGUF ci garantisce un'inferenza rapida ed efficiente anche su dispositivi edge (Edge AI), un requisito fondamentale per i sistemi di monitoraggio sul campo.

 

Trasparenza e Innovazione: Prova LEWS

In SciamLab crediamo fortemente nell'open source e nella condivisione della conoscenza. Per questo motivo, abbiamo reso disponibile sia il codice sorgente che una demo funzionante del nostro sistema.

  • Esplora il Codice: L'intera architettura di sistema, i dettagli del fine-tuning, la pipeline di data collection e i risultati delle metriche di valutazione (F1-Score, Recall, Precision) sono documentati nel nostro repository GitLab pubblico: https://gitlab.com/sciamlab/ai/lews

  • Testa il Pilota Live: Vuoi vedere il modello in azione? Abbiamo implementato un pilota funzionante dove è possibile testare le capacità di inferenza del sistema in tempo reale. Provalo qui: https://lews.sciamlab.com

 

Prossimi Passi

Il Liquid AI Hackathon è stato un banco di prova fantastico per il nostro team. Aver sviluppato LEWS in così poco tempo dimostra il potenziale enorme dei modelli SLM (Small Language Models) multimodali applicati alla Tech for Good.

Continueremo a migliorare il modello integrando nuovi dati temporali e affinando l'integrazione con i sensori IoT sul campo.

Fateci sapere cosa ne pensate testando il pilota o aprendo un'issue sul nostro repository. Un grande in bocca al lupo a tutti i partecipanti dell'hackathon e... happy coding!