Home Notizie recenti È ora di socializzare: monitorare gli animali con il deep learning

È ora di socializzare: monitorare gli animali con il deep learning

156
0

Credito: Scuola Politecnica Federale di Losanna

I ricercatori dell’EPFL hanno fatto passi da gigante nel monitoraggio degli animali assistito dal computer espandendo il loro software, DeepLabCut, per offrire il monitoraggio ad alte prestazioni di più animali nei video.

La capacità di catturare il comportamento degli animali è fondamentale per le neuroscienze, l’ecologia e molti altri campi. Le telecamere sono ideali per catturare comportamenti a grana fine, ma lo sviluppo di tecniche di visione artificiale per estrarre il comportamento dell’animale è impegnativo anche se questo sembra facile per il nostro sistema visivo.

Uno degli aspetti chiave della quantificazione del comportamento animale è la “stima della posa”, che si riferisce alla capacità di un computer di identificare la posa (posizione e orientamento delle diverse parti del corpo) di un animale. In un ambiente di laboratorio, è possibile aiutare la stima della posa posizionando marcatori sul corpo dell’animale come nelle tecniche di acquisizione del movimento utilizzate nei film (pensa a Gollum ne Il Signore degli Anelli). Ma come si può immaginare, convincere gli animali a indossare attrezzature specializzate non è il compito più facile, e assolutamente impossibile e non etico in natura.

Per questo motivo, i professori Alexander Mathis e Mackenzie Mathis dell’EPFL sono stati pionieri del monitoraggio “markerless” per gli animali. Il loro software si basa sull’apprendimento profondo per “insegnare” ai computer a eseguire la stima della posa senza la necessità di marcatori fisici o virtuali.

I loro team hanno sviluppato DeepLabCut, un “pacchetto di stima della posa degli animali” open source e di apprendimento approfondito in grado di eseguire l’acquisizione del movimento senza marker degli animali. Nel 2018 hanno rilasciato DeepLabCut e il software ha ottenuto un notevole successo nelle scienze della vita: oltre 350.00 download del software e quasi 1400 citazioni. Quindi, nel 2020, i team di Mathis hanno rilasciato DeepLabCut-Live!, una versione in tempo reale a bassa latenza di DeepLabCut che consente ai ricercatori di fornire rapidamente feedback agli animali che stanno studiando.

Ora, gli scienziati hanno ampliato DeepLabCut per affrontare un’altra sfida nella stima della posa: tracciare gli animali sociali, anche quelli che interagiscono strettamente; ad esempio, fare da genitore ai topi o istruire i pesci. Le sfide qui sono ovvie: i singoli animali possono avere un aspetto così simile da confondere il computer, possono oscurarsi a vicenda e possono esserci molti “punti chiave” che i ricercatori desiderano tracciare, rendendolo computazionalmente difficile da elaborare in modo efficiente.

Per affrontare questa sfida, hanno prima creato quattro set di dati di varia difficoltà per l’analisi comparativa delle reti di stima della posa multi-animale. I set di dati, raccolti con i colleghi del MIT e dell’Università di Harvard, sono costituiti da tre topi in un campo aperto, genitori in gabbia in casa nei topi, coppie di uistitì alloggiate in un grande recinto e quattordici pesci in una vasca di flusso. Con questi set di dati in mano, i ricercatori sono stati in grado di sviluppare nuovi metodi per affrontare le difficoltà del monitoraggio del mondo reale.

DeepLabCut affronta queste sfide integrando nuove architetture di rete, assemblaggi basati sui dati (quale punto chiave appartiene a quale animale) e metodi personalizzati di tracciamento delle pose. In particolare, i ricercatori hanno creato una nuova rete neurale multi-task che prevede punti chiave, arti e identità animale direttamente da singoli frame. Hanno anche sviluppato un algoritmo di assemblaggio che è “agnostico” al piano corporeo, che è molto importante quando si lavora con animali che possono variare ampiamente nelle loro forme corporee. Questi metodi sono stati convalidati su piani corporei dai pesci ai primati.

Inoltre, gli scienziati hanno sviluppato un metodo per identificare i singoli animali dal video senza alcun dato sull’identità della “verità di base”. “Immagina la difficoltà dell’etichettatura dell’affidabilità di quale mouse da laboratorio è”, afferma Mackenzie Mathis. “Sembrano così simili all’occhio umano che questo compito è quasi impossibile”.

Il nuovo algoritmo si basa su un apprendimento metrico con trasformatori di visione e consente agli scienziati di identificare nuovamente gli animali e continuare a seguirli quando più animali si nascondono alla vista e riappaiono in seguito. I ricercatori hanno anche utilizzato un approccio basato sull’aspetto per analizzare il comportamento di coppie di uistitì in nove ore di video, quasi un milione di fotogrammi. Una delle intuizioni di questo approccio è stata che agli uistitì, una specie altamente sociale, piace guardare insieme in direzioni simili.

“Centinaia di laboratori in tutto il mondo utilizzano DeepLabCut e lo hanno utilizzato per analizzare qualsiasi cosa, dalle espressioni facciali nei topi, al raggiungere nei primati”, afferma Alexander Mathis. “Non vedo l’ora di vedere cosa farà la community con la cassetta degli attrezzi ampliata che consente l’analisi delle interazioni sociali”.


Articolo precedenteIl rumore e le vibrazioni sono i principali fattori di disagio dei passeggeri a bordo degli aerei ad elica
Articolo successivoSneakers sostenibili: gli scienziati creano la prima scarpa biodegradabile al mondo