Basato sui dati raccolti dalla Metropolitan Police di Londra durante la sperimentazione di soluzioni di monitoraggio e sicurezza in alcune delle aree di maggiore densità della capitale, lo studio indica addirittura una percentuale di errore dell'80 %, eccessiva affinché sia considerata affidabile. Nell'area di Westfield ad esempio su 42 segnalazioni di individui potenzialmente sotto il controllo della Polizia, solo 8 sono risultate corrette, mentre le altre 36 erano tutte sbagliate. Addirittura anzi in per 26 di esse l'errore era talmente evidente che i poliziotti non hanno ritenuto accettabile anche solo fermare i segnalati.
Lo studio comunque non è il primo esempio di inaffidabilità. Negli Stati Uniti infatti uno dei motivi per cui alcune città come San Francisco hanno deciso di vietare l'uso di tecnologie di riconoscimento facciale per la sicurezza pubblica è proprio l'inattendibilità, soprattutto con i volti delle persone di colore. Nel 2018 ad esempio è stato svolto un altro esperimento. Al famigerato sistema messo a punto da Amazon è stato chiesto di analizzare i volti dei 535 componenti del Congresso degli Stati Uniti per poi compararli ai 25mila presenti in un database di foto segnaletiche. Il sistema ha trovato una corrispondenza nel 5% dei casi, ovviamente tutti sbagliati e la percentuale di errore maggiore era legata proprio all'individuazione dei volti di persone di colore.
Anche in Inghilterra ovviamente questa sperimentazione non ha mancato di sollevare le proteste da parte di associazioni di attivisti come Big Brother Watch, mentre la questione è stata addirittura discussa in Parlamento, grazie all'attività dei rappresentanti del comitato scientifico e tecnologico della Camera dei Comuni. Chi è preoccupato per la privacy può comunque stare tranquillo: in Europa le direttive del GDPR sono molto più stringenti e attualmente non consentono la raccolta dei dati biometrici senza il consenso del diretto interessato, né il loro utilizzo al di fuori di casi specifici come ad esempio un procedimento giudiziario.