Meta sta sperimentando uno strumento che dovrebbe rilevare automaticamente foto che contengono nudità. Non solo per servire come scudo ma anche per aiutare le persone ad agire online con più consapevolezza
Meta ha deciso di incrementare l’impegno nel contrasto del revenge porn e della cosiddetta sextortion, cioè le estorsioni basate su ricatti sessuali: oltre alla collaborazione con Take it Down (cos’è?), l’azienda sta testando una nuova funzionalità dedicata ai DM, i messaggi scambiati attraverso la chat di Instagram.
Una volta che la novità diventerà operativa, sarà attiva di default sugli account delle e degli under 18 e anche verrà consigliata agli utenti maggiorenni, sostanzialmente per aiutarli a non fare scelte di cui potrebbero pentirsi in futuro.
Nella pratica, quello che succederà è che verrà applicata una sfocatura alle immagini inviate via Direct in cui vengono rilevate nudità, con uno scopo triplice: incoraggiare le persone a riflettere prima di inviare immagini di questo tipo; proteggerle dal vedere contenuti di nudo indesiderati; proteggerle dai truffatori che potrebbero inviare immagini contenenti nudità per cercare di ingannarle e indurle a inviare le loro immagini in cambio.
Da quel che si capisce, il sistema funziona da un lato e dall’altro, cioè sia dal punto di vista del mittente sia da quello del destinatario: se si provano a mandare immagini contenenti nudità, si riceve un messaggio che ricorderà di essere cauti quando si inviano foto del genere, anche con la possibilità di annullare l'invio (la stessa cosa succede anche se si tenta di farne l’inoltro); viceversa, se si riceve un'immagine contenente nudità, la foto viene sfocata da una schermata di avvertimento, così che il destinatario sia libero di scegliere se visualizzarla o meno.
Da Meta hanno spiegato che i sistemi di rilevamento della nudità utilizzano algoritmi di apprendimento automatico direttamente sui dispositivi per analizzare le immagini e che dunque le foto non escono dai device: “Questo strumento di protezione funzionerà nelle chat crittografate end-to-end, dove Meta non avrà accesso a queste immagini, a meno che qualcuno non decida di segnalarcele”.
Al di là di ciò che possono fare i cybercriminali, cioè quelli che agiscono proprio con l’intenzione di fare male, ci sono almeno un altro paio di potenziali conseguenze pericolose dei cosiddetti nudini. Conseguenze che spesso le persone ignorano, soprattutto i più giovani.
La prima è esplicitata chiaramente da Meta, che nel nuovo strumento pensato per Instagram ricorderà che “una volta condivisi contenuti sensibili, può essere difficile controllare che fine fanno”. Fra l’altro, “difficile” è un po’ un eufemismo: è praticamente impossibile. Di più: se anche può sembrare una buona idea (o essere davvero una buona idea) condividere questo tipo di foto con il o la partner, va tenuto presente che il rapporto con chi riceve le immagini può cambiare nel tempo, che ne possono essere fatti screenshot, che possono essere inoltrate senza consenso anche più e più e più volte. E che ognuno di questi passaggi rende sempre più facile e probabile che vengano in qualche modo usate contro chi le ha inviate.
Il secondo problema è un problema più recente e ha a che fare con le intelligenze artificiali e i deepfake (cosa sono?): per le IA più evolute, che già ora vengono usate anche per scopi criminali, è molto facile creare immagini false di persone reali, in situazioni imbarazzanti o compromettenti, spogliandole se non lo sono o spogliandole più di quello che sono in qualche foto diffusa online. E più sono le immagini di questo tipo che circolano in Rete, più per le IA è semplice allenarsi a riprodurle. Partendo magari da quello che sembrava solo uno scatto provocante spedito scherzosamente in una chat.
Motori
Dal 6 all’8 dicembre, l’Autodromo di Monza accoglie il gran
Notizie
Tutti gli eventi natalizi in Brianza dal 16 novembre al
Notizie
Il “dollaro alternativo” che potrebbe cambiare il mercato globale delle