Editoriale

Il riconoscimento facciale alla prova delle mascherine: lo scenario

Uomo con mascherina chirurgica e smartphone

Era il 12 settembre 2017 quando Apple toglieva i veli dall’iPhone X (detto anche iPhone del decennio) e mostrava al mondo quella che poteva essere considerata la maggiore innovazione in ambito iOS da diversi anni a questa parte: il Face ID. Per ovviare all’assenza di tasti fisici sul dispositivo (e dello sblocco con impronta digitale), i tecnici della casa di Cupertino introdussero il riconoscimento facciale nel codice sorgente del sistema operativo mobile, da utilizzare come sistema di protezione del dispositivo e delle informazioni contenute al suo interno.

Ben chiaro, la casa della mela morsicata non si è inventata assolutamente nulla di nuovo. Le tecnologie di riconoscimento facciale erano utilizzate già da anni, ma in altri ambiti e non avevano mai (o quasi mai) avuto una diretta esposizione al grande pubblico. Se non al cinema, in qualche film fantascientifico. Face ID, invece, era “tremendamente reale” e in grado di riconoscere in una frazione di secondo il volto di chi si trovava di fronte.

Questo, almeno, fino a qualche settimana fa. Come avranno provato sulla loro pelle non solo gli utenti iOS, ma anche i possessori di smartphone Android, da fine marzo utilizzare il riconoscimento facciale è diventato piuttosto complesso. E non solo sugli smartphone, ma anche in tutte quelle realtà produttive che ne fanno uso per regolare gli accessi agli impianti e proteggere segreti industriali. Con l’ingresso in campo delle mascherine chirurgiche (necessarie per le norme anti-COVID), i sistemi di riconoscimento facciale hanno dovuto fare i conti con un elemento estraneo e inatteso. E con il quale si dovranno fare i conti anche nei mesi e negli anni a venire.

Il riconoscimento facciale alla prova delle mascherine

Secondo il parere di diversi esperti, infatti, le mascherine mediche non “scompariranno” nelle prossime settimane. Tantomeno nei prossimi mesi: dovremo imparare a convivere con dispositivi di protezione individuale ancora per lungo tempo. Probabilmente almeno per un anno, se non due. Quando saremo in giro per la città o in luoghi pubblici dovremo necessariamente indossare mascherina e, probabilmente, anche i guanti. Questo vuol dire, molto semplicemente, che sbloccare gli smartphone sarà molto più complicato di quanto lo sia adesso.

Ma la biometria dei dispositivi mobili è solo una delle tante applicazioni del riconoscimento facciale. Quella più “prossima” agli utenti, probabilmente, ma non la più importante in assoluto. Il riconoscimento facciale, ad esempio, viene ampiamente utilizzato negli aeroporti di tutto il mondo per individuare sospetti e malviventi segnalati dalle autorità. O, ancora, viene utilizzato dalle forze di polizia per controllare che non ci sia qualche sospetto o qualche ricercato che circola liberamente in strada.

E, come è semplice immaginare, si tratta di sistemi di gran lunga più sofisticati e complessi rispetto a quelli montati da qualunque smartphone. Se il nostro telefonino deve riconoscere i tratti di un solo volto, avendo la possibilità di scansionarlo da più angolazioni, i sistemi a disposizione delle forze di polizia o di quelle di sicurezza negli aeroporti possono fare affidamento solo su foto segnaletiche e devono analizzare centinaia, se non migliaia, di volti al secondo.

Inevitabilmente, la comparsa delle mascherine a coprire parte del volto complicherà il compito dei sistemi deputati al riconoscimento facciale, mettendoli di fronte (è proprio il caso di dire) a una sfida che nessuno aveva messo in conto.

Algoritmo di riconoscimento facciale in funzione

Come funziona il riconoscimento facciale

Per comprendere a fondo quali siano le difficoltà insite in questo processo, però, è necessario capire come funziona il riconoscimento facciale e quali sono gli elementi che entrano in gioco ogni volta che mettiamo il nostro volto di fronte a una telecamera (o, al contrario, una telecamera “incontra” il nostro viso e avvia il processo di riconoscimento).

Di fatto, Il processo di riconoscimento facciale si compone di due fasi: la prima, di “apprendimento”, e la seconda di “identificazione”. Queste fasi, a loro volta, possono essere poi divise in altre “sottofasi”, che permettono agli algoritmi di riconoscimento facciale di individuare con maggior facilità e velocità chi sia la persona di fronte alla fotocamera.

Nella fase di apprendimento il sistema di riconoscimento facciale impara a “conoscere” il volto di chi si trova di fronte. Questa fase, di fatto, si compone di due “sottofasi”: identificazione di un volto e mappatura del volto. Prima che gli algoritmi possano riconoscere la persona a partire dalla faccia, è infatti necessario che la telecamera (dello smartphone o del sistema di sorveglianza stradale poco cambia) individui prima il volto di una persona. Un’operazione che riesce meglio quando il volto è posto frontalmente all’obiettivo, ma i sistemi più avanzati sono in grado di identificare un volto umano anche quando questo è in posizione leggermente laterale.

Successivamente, i sistemi collegati alle telecamere provvedono ad acquisire l’immagine del volto e a scansionarla, in modo che sia possibile creare una mappa del volto stesso. Affinché ciò sia possibile, gli algoritmi identificano alcuni punti e misure che aiutano a ricostruire la “topografia” del viso. Ad esempio, viene misurata la distanza interpupillare (ossia, la distanza tra le pupille degli occhi), la distanza tra mento e fronte; e così via. Per ogni volto, vengono individuati tra i 60 e gli 80 punti, grazie ai quali è possibile creare un’immagine “virtuale” del viso di ogni persona.

Finita questa operazione (che nella pratica dura una manciata di secondi), si passa alla fase di identificazione vera e propria. Per ogni volto scansionato, il sistema crea una “firma digitale” univoca e l’archivia all’interno di un database sicuro e protetto. Nel momento in cui un volto (o più volti) si “palesano” davanti alla telecamera, gli algoritmi andranno a ricostruire la mappa del volto, creeranno una “firma” e la confronteranno con quelle presenti nel database. Se la firma corrisponde, il riconoscimento facciale identificherà la persona in maniera certa; in caso contrario il riconoscimento non avverrà (e, ad esempio, lo smartphone non verrà sbloccato).

Intelligenza artificiale

fonte: Shutterstock

Si capisce piuttosto facilmente perché la mascherina complichi incredibilmente il compito svolto dagli algoritmi di riconoscimento facciale. Indossando una mascherina chirurgica o mascherine FFP3 o FFP2 andremo a ridurre il numero di punti e distanze sui quali gli “scanner” del volto possono basarsi per identificare la persona, costringendo così il sistema a restituire dei “falsi negativi” o, nei casi peggiori, dei “falsi positivi”: come discusso nel nostro approfondimento sugli assistenti virtuali, i sistemi biometrici devono trovare il giusto bilanciamento tra questi due errori.

Apprendimento automatico in soccorso

Le aziende attive nel settore – Apple, con il suo Face ID, è solo la punta di un immenso iceberg, fatto principalmente di prodotti rivolti a servizi di sorveglianza e sicurezza – si è così scatenata una vera e propria gara a chi fosse stato in grado di realizzare algoritmi in grado di funzionare con metà dei dati a disposizione. E, come era facile immaginare, le aziende maggiormente avvantaggiate sono quelle asiatiche.

Nei Paesi asiatici, Giappone in testa, i cittadini indossano mascherine chirurgiche ormai da diversi anni. Le case sviluppatrici attive in queste nazioni, dunque, hanno dovuto fare i conti con il “problema mascherine” prima di altre, tentando così di implementare delle soluzioni che le aiutassero a fornire prodotti perfettamente funzionanti in qualunque condizione.

E la soluzione sta in algoritmi di apprendimento automatico (detti in gergo tecnico di “machine learning”) capaci di lavorare anche con un numero inferiore di dati. In particolare, un’azienda vietnamita ha affermato di esser riuscita a mettere a punto un algoritmo in grado di aggirare gli ostacoli presentati dalle mascherine. Come? Utilizzando il deep learning, una branca dell’apprendimento automatico che sfrutta le cosiddette reti neuronali per migliorare le capacità “di ragionamento” degli algoritmi e dei computer. Le reti neuronali artificiali alla base del deep learning, infatti, provano a emulare il funzionamento dei neuroni umani, garantendo livelli di accuratezza simili, se non superiori, agli umani in moltissimi task.

Cervello artificiale

fonte: Shutterstock

Il deep learning, in particolare, viene utilizzato in tutte quelle attività “umane” nelle quali i computer si stanno specializzando negli ultimi anni. La computer vision, il riconoscimento automatico della lingua parlata, l’elaborazione del linguaggio naturale e il riconoscimento audio sono tutti settori nei quali l’introduzione di reti neurali artificiali profonde ha portato grandi vantaggi. Questo perché in questi ambiti il deep learning è in grado di garantire livelli di astrazione e generalizzazione superiori a quelli di qualunque altro algoritmo di intelligenza artificiale e machine learning utilizzato sino a oggi, grazie a una rappresentazione più complessa delle informazioni presenti nei dati, .

Nel nostro scenario di partenza, includere i volti degli individui con e senza mascherina in fase di addestramento aiuta il modello predittivo a individuare caratteristiche ancora più generalizzabili di un dato volto. In questo modo lo sblocco facciale del nostro smartphone diventerà più accurato al passare delle settimane e dei mesi.

Il futuro del riconoscimento facciale

Le prime applicazioni di algoritmi di deep learning al mondo del riconoscimento facciale risalgono al 2014, quando un team di ricerca di Facebook e ricercatori accademici misero a punto DeepFace e DeepID. Il primo è l’algoritmo dietro il sistema di riconoscimento facciale del social network di proprietà di Mark Zuckerberg, utilizzato per aggiungere tag automatici alle immagini che gli utenti caricano sui loro profili. Il secondo (il cui nome è l’acronimo di Deep hidden IDentity features), invece, è un sistema di riconoscimento facciale messo a punto da un team di ricercatori universitari ed è stato uno dei primi algoritmi a ottenere risultati migliori di un umano (margine di errore inferiore all’1%). DeepID, inoltre, è stato migliorato nel corso del tempo, affinando sempre più le sue capacità di riconoscimento.

Questi, ovviamente, sono solamente due dei tanti approcci che legano il deep learning al riconoscimento facciale. Ai quali se ne sono aggiunti, nel corso degli anni, di nuovi, capaci di ottenere risultati sempre migliori. Nel 2015, ad esempio, Google presenta il suo FaceNet, mentre poco tempo dopo arriva VGGFace sviluppato da ricercatori di Oxford.

Insomma, la strada sembra essere ampiamente tracciata e quello delle mascherine potrebbe essere visto, da qui a qualche anno, come una sorta di incidente che ha finito con l’accelerare un percorso di per sé già ben definito. Insomma, come la mela che ispirò Newton nel formulare la sua Legge sulla gravitazione universale.

Non perderti le migliori news sulla tecnologia, segui il nostro canale Telegram: t.me/OutOfBitit

banner telegram - canale offerte

Potrebbero interessarti
EditorialeWindows

Le migliori soluzioni per emulare Android su PC

EditorialeInternetNews

Alexa, mi stai spiando? La verità sugli assistenti virtuali

Consigli per gli acquistiEditoriale

Come scegliere un power bank ideale e quali sono i modelli migliori

AppleEditorialeGuideGuideMacPCWindows

Migliori emulatori per PC con Windows, Mac e Linux