Il modello Prithvi-100M IBM Geospatial AI Foundation per i dati di osservazione della Terra della NASA

Immagine satellitare della Laguna Karavasta in Albania, 2017. Credito immagine: https://www.esa.int/var/esa/storage/images/esa_multimedia/images/2017/03/karavasta_lagoon_albania/16854373-1-eng-GB/Karavasta_Lagoon_Albania.jpg. Contiene dati Copernicus Sentinel modificati.

I modelli Foundation sono algoritmi flessibili di deep learning progettati per compiti generali, anziché essere immediatamente focalizzati su compiti specifici. Addestrati su grandi quantità di dati non etichettati, possono essere applicati a una varietà di attività a valle con una messa a punto minima. I modelli di fondazione sono ben noti dall’elaborazione del linguaggio naturale (BERTGPT-x) e l’elaborazione delle immagini (DALLE).

Nell’agosto 2023, la NASA e l’IBM hanno rilasciato il Geospatial AI Foundation Model per i dati di osservazione della Terra della NASA. Il modello è disponibile open source su Abbracciare la faccia sotto il nome di Prithvi, la dea indù della Madre Terra. È stato addestrato sui dati satellitari della NASA: secondo IBM, più di 250 Petabyte di dati sono disponibili.

In questo post del blog, discutiamo

  • Il set di dati Landsat Harmonized Sentinel-2 della NASA utilizzato per l’addestramento,
  • L’architettura del modello di fondazione AI geospaziale Prithvi-100M,
  • Il processo di addestramento sul supercomputer Vela di IBM,
  • Esempi di applicazioni: inondazioni e identificazione del tipo di coltura.

Dati di allenamento

È stato effettuato l’addestramento sul modello di base dell’intelligenza artificiale geospaziale Dati armonizzati della NASA LandSat Sentinel-2.

Sentinella-2 è una missione satellitare coordinata dall’Agenzia spaziale europea, con due satelliti attualmente in orbita che acquisiscono immagini ad alta risoluzione della Terra. Si concentra su terra, aree costiere e acque aperte selezionate. I satelliti Landsat sono stati lanciati dalla NASA per registrare la riflettanza superficiale. I dati armonizzati combinano l’input di entrambi i sensori, ottenendo una risoluzione spaziale di circa 30 metri e un tempo di rivisitazione medio di due o tre giorni. Questa risoluzione è sufficiente per il monitoraggio agricolo, la classificazione dell’uso del territorio e il rilevamento dei disastri naturali.

Le fotografie standard sono composte da tre colori: rosso, verde e blu. I dati Sentinel-2 sono disponibili in un totale di 13 “colori”, cosiddetti bandeche abbraccia la gamma visibile, del vicino infrarosso e dell’infrarosso a onde corte dello spettro elettromagnetico. Le bande selezionate possono essere utilizzate per identificare cose diverse, ad esempio gli infrarossi…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *