Può un solo algoritmo determinare i gusti sessuali di una persona partendo semplicemente da una foto? Stando ai ricercatori della Stanford University, sì. Uno studio condotto dall’ente è riuscito a ottenere risultati in percentuale molto più vicini alla realtà di quanto fatto da giudici in carne e ossa. Nel concreto: la rete neurale sviluppata nei laboratori della Stanford ha portato a casa l’81% di accuratezza nel riconoscere uomini gay e il 74% in merito alle lesbiche, contro rispettivamente il 61% e il 54% scaturito dalle analisi di occhi umani. Qui però il dilemma: a cosa punta l’algoritmo? Esistono espressioni del volto, morfologie e caratteri distintivi tali da permettere alla macchine di poter distinguere tra un eterosessuale e gli altri?
E se questo fosse possibile non saremmo dinanzi a una chiara presa di posizione razziale e stereotipata? Difficile dirlo ma sta di fatto che i risultati a cui il test è giunto rappresentano una base di partenza fondamentale per analisi antropomorfiche future.
Come si è svolto
L’esperimento ha preso in considerazione circa 35 mila foto di altrettanti individui inserite come file all’interno della rete neurale riprodotta. A mano a mano che le immagini venivano mostrate al computer, questo imparava a distinguere meglio i generi sessuali, sino a raggiungere picchi del 91% di esattezza, tramite un confronto diretto con le dichiarazioni di orientamento rilasciate dagli stessi tester. Secondo i ricercatori: “Coerente con la teoria dell’ormone prenatale che induce l’orientamento sessuale, gay e lesbiche tendono ad avere una morfologia facciale atipica, contraddistinta da espressioni e stili determinabili. Questi risultati portano avanti la nostra comprensione delle origini delle scelte sessuali e dei limiti della percezione umana. Inoltre, dato che aziende e governi stanno sempre più utilizzando algoritmi di computer vision per individuare i tratti intimi delle persone, lo studio pone anche in essere la possibilità che uomini e donne omosessuali possano essere individuati digitalmente con seri rischi per la loro sicurezza”.
Sebbene la ricerca mostri fini ben poco totalitaristi è evidente che ottenere l’accesso a software del genere potrebbe dar vita a pesanti abusi, indirizzati a perseguire chi è stato etichettato come gay da una macchina che non sa andare oltre lo sguardo.