SaggioPodcast #123 - Scegliamo il male minore?
benvenuti al saggio podcast questa è la puntata 123 si avete capito bene un due tre e non poteva
mancare luca ciao luca ciao morizio grazie per avermi invitato a questa puntata speciale perché
sai che sono molto affezionato a tutti i numeri che possono essere in qualsiasi modo particolari
ecco e questo lo è senza ombra di dubbio tra l'altro stavo notando che quest'anno proprio
non siamo andati praticamente in vacanza con i podcast abbiamo continuato a tutto regime anche
con pixel club il nuovo podcast cose non so se lo avete già ascoltato ma vi invito a farlo ci
sono già quattro puntate e ne arrivano di nuove ogni lunedì mattina alle sette
niente insomma siamo siamo pronti per questa 123 luca siamo pronti e tra l'altro mi redimo un
pochettino con questa puntata del saggio podcast perché invece con easy apple abbiamo deciso di
prenderci una pausa per incompatibilità di orario di ferie quindi piccola pausa per easy apple dai
almeno una settimana la tappiamo così e cose sicuramente è diventato il mio nuovo compagno
del lunedì mattina e però sono molto felice di avervi seguito e di avervi seguito e di avervi
seguito molto fiero di me stesso perché sono riuscito a non comprare ancora niente malgrado
voi due disgraziati siate piuttosto convincenti ce la faremo ce la faremo prima o poi ti
convinceremo a comprare qualcosa va bene allora direi che a parte varie cose minori di cui si
può parlare la bomba del momento riguarda l'annuncio di apple relativo a queste nuove
funzioni a tutela dei minori che saranno introdotte da ios 15 ipad os 15 e mac os 12 quindi tutte le
nuove release che arriveranno ad ottobre dei sistemi operativi ma per il momento attenzione
solo negli stati uniti quindi sarà un qualcosa che apple ha già dichiarato di voler portare
all'estendere insomma di fuori in altre nazioni compatibilmente con le varie legislazioni vi
chiedo scusa se sentite intanto dei rumori molesti ma ci sono degli aerei che stanno passando qui
perché mezza città è andata a fuoco letteralmente quindi stanno cercando di spegnere incendi a gogo
però dicevo tornando a noi che queste novità poi potrebbero arrivare anche in italia hanno fatto
discutere molto perché effettivamente sono argomenti sensibili no luca sono decisamente
sensibili e sembrano un po andare a cozzare con diciamo molte delle argomentazioni 100% a favore
della privacy che apple ha portato avanti negli ultimi anni ormai diversi anni e come elemento
caratterizzante dei propri prodotti
dei propri software e in opposizione a quello che fa la concorrenza questo sembra un passo
indietro di sicuro la cosa è molto grigia non è né bianca né nera non è assolutamente facile
prendere posizione nei confronti di questo ma parliamo di che cos'è questo prima di commentarlo
apple ha deciso di introdurre due diversi sistemi e è bene chiarire il fatto che
sono due sono distinti e mentre uno è opzionale e dedicato solamente agli account impostati come
bambino nelle famiglie di itunes di apple non so bene quale sia il nome corretto l'altro quelli
con i controlli parentali attivi insomma va esatto sì però credo proprio che sia necessario avere un
apple id intero che è stato arruolato in una famiglia e quindi il genitore invece o comunque
il tutore ha la possibilità di attivare queste ma credo che funzioni così con i controlli con
i controlli parentali credo sia per forza così non credo secondo me io potrei attivarle sul mio
telefono in malgrado io sia il capo famiglia ok ho capito non è certo ecco questo è uno è un
che prevede una scansione delle immagini eseguita in locale sul nostro telefono prima che queste
vadano a finire sui server di apple il motivo e i contenuti che sono ricercati in entrambi questi
casi sono la ricerca e il blocco di immagini di abusi su minori si sam child sexual abuse
e me non mi ricordo per cosa sta è un acronimo che onestamente non conoscevo
e che ho visto essere utilizzato per questo tipo di contenuti decisamente riprovevoli
allora luca sono due come giustamente dici sul primo in realtà non è specificatamente il discorso
di abusi su minori almeno da quello che ho letto io la prima misura diciamo che si chiama
communication safety funziona in locale analizzando le immagini che vengono scambiate
tramite i message quindi solo in locale solo le immagini tramite i message e non è specificatamente
il message negli smartphone negli iphone insomma che sono definiti come iphone di un minore
l'account che è proprietario comunque risulta genitore rispetto a quello che è in uso sull'iphone
dove vengono ricevuti questi questi contenuti quindi è una misura che in realtà va ad aggiungersi
in una forma che comunque mi sembra abbastanza indovinabile
indovinata nel senso che comunque dicevo anche in un video qualche giorno fa
mi sembra più logico più importante bloccare uno scambio di questo tipo
ma diciamo che a un certo punto più o meno tutti lo vedranno insomma no
mentre questa cosa è sicuramente più più importante almeno per come è stata pensata secondo me
e diciamo la scelta ricade unicamente sul bambino
è qualcosa che saltava fuori dovendosi registrare a dei siti soprattutto in passato
e ad ogni modo ecco questo riguarda le comunicazioni e come dicevi tu giustamente
ci sono vari vari motivi per cui Apple può avere fatto questa scelta
l'anno scorso alle autorità Apple tipo 200 quindi leggermente diverso in termini di quantità
e sicuramente Facebook magari ha più utenti di quanti ne possa avere Apple
ma la disparità non è certo proporzionale a niente
è semplicemente indice del fatto che in pratica Apple non andava a controllare
non vorrei che addirittura fossero i suoi servizi
considerati quasi una sorta di l'equivalente di un paradiso fiscale
da parte dei depravati che si scambiano questo genere di immagini
mentre appunto altri servizi come dicevi tu vanno sempre a farne una scansione
e quindi le immagini non erano accettate
penso anche che Apple abbia la volontà di fare questo controllo
per evitare qualsiasi potenziale responsabilità
perché d'accordo l'immagine è stata caricata dall'utente X
però risiede comunque sui server di Apple
che in qualche maniera risulta come facilitatore per la conservazione
se non addirittura la divulgazione di questo tipo di materiale
diciamo pure che arriva questa misura in un momento
in cui il quadro è abbastanza già delineato e indirizzato
verso questo tipo di attività perché oltre a quello che dicevi giustamente tu
dell'attività di Facebook ma praticamente c'è stata un'unione di forze
tra Microsoft, Google e la stessa Facebook e altre minori
proprio per andare a controllare a tappeto tutti i contenuti che stanno nei loro cloud
per rispondere a questo tipo di minacce diciamo alla sicurezza dei bambini
che poi in realtà non sono delle minacce in tal caso
perché se andiamo a verificare dei contenuti che sono stati generati
appunto con abusi su minori ovviamente il crimine c'è già stato a priori
quindi quello che loro cercano in questo caso sono più che altro le persone
che sfruttano questi contenuti sperando che piano piano si possa anche in qualche modo
risalire la piramide e limitare la diffusione
però il punto è che c'è anche un regolamento che è stato emanato
ora io non sono un giurista quindi perdonatemi se sbaglierò qualche termine
però dall'Unione Europea è stato emanato appunto questo regolamento
tutte le regole sulla privacy per consentire a tutti quelli che offrono sistemi di messaggistica
di analizzare le immagini sempre con la finalità di rilevare dei contenuti pedopornografici
e tra l'altro con segnalazione poi di ipotesi di reato alle forze di polizia
Apple ha fatto una cosa molto diversa
entriamo un pochino nel succo della questione insomma
perché questo sistema che ha pensato lei
non va come fanno gli altri ad analizzare le foto che ci sono su iCloud Photo
ma crea un hash, un codice univoco diciamo per ognuna delle nostre immagini
nel momento in cui la stiamo mandando su iCloud Photo
e questo già è una prima cosa importante
cioè se noi non attiviamo iCloud Photo questo sistema non funziona, punto
quindi abbiamo già diciamo un opt-out per così dire
abbiamo la possibilità di dire
se attiviamo iCloud Photo invece
Apple invece di andare a guardare tutte le nostre fotografie una per uno
con i vari sistemi di intelligenza artificiale
con questa tecnologia che è stata definita Neural Hash
e poi sulla base di tutte le foto già presenti in un database di un ente
che ovviamente attualmente è quello che fa capo agli Stati Uniti
ma se poi lo vorranno estendere dovrà essere qualcuno ovviamente
per ogni foto che si fa capo agli Stati Uniti
e quindi questo database viene applicato alla stessa tecnologia
quindi per ognuna delle immagini già note
viene creato con lo stesso metodo un hash
e quindi poi Apple in realtà andrà a fare solo una verifica
un if se è uguale a una di quelle immagini già presente lì
però l'immagine, il contenuto, l'informazione insomma che vedrà Apple
sarà soltanto il nostro hash per ogni foto
quindi l'idea è quella di mantenere sempre la privacy
però è un'arma un po' a doppio taglio no Luca?
cioè alla fine usa il nostro smartphone per fare un'analisi
non lo so, è difficile sta cosa
perché poi ovviamente tanti sono partiti con le ipotesi di complotto
e vabbè ma allora adesso basta fare un'altra cosa
sul nostro telefono possono cercare quello che vogliono loro in background
fare tutte le varie analisi eccetera eccetera
l'immagine è una cosa che non è una cosa che non è una cosa che non è una cosa
scusa prima di passarti la parola un'altra informazione
nel caso in cui Apple dovesse verificare un'eguaglianza
tra questi hash in un certo numero
però purtroppo non ha detto qual è questo numero
ma diciamo in un certo numero X che ipotizziamo sia 5, 10 non lo so
comunque Apple non andrebbe ad informare direttamente
come fanno gli altri le forze di polizia
ma farebbe prima lei una verifica visuale, manuale
e poi successivamente informerebbe soltanto
questo ente la cui sigla è NCMC
che è appunto il detentore di questo archivio
di questo database di immagini derivanti da abusi su minore
e poi da lì quindi deve esserci tutta questa bella trafila di verifiche
prima di arrivare eventualmente alle forze dell'ordine insomma
sì il fatto di avere una soglia
e non che sia al primo colpo subito bam diretti segnalazione
è anche un po' una salvaguardia nei confronti dei fatti
e quindi è un po' un'altra cosa che non si può fare
e quindi è un po' una salvaguardia nei confronti dei fatti
non serve che ci sia l'unico esatto cane
con il cui è stato allenato la rete neurale
che fa il riconoscimento delle immagini
non dobbiamo avere la foto di quel cane
perché il sistema ce lo riconosca
ma tutte le cose che ci assomigliano
qualcosa di un po' più stringente
perché prende specificamente invece le immagini derivate da quella
la distorciamo in qualche maniera
la firma, il codice univoco che identifica l'immagine
o comunque immagino che ci siano delle sorte di tolleranze
per cui dicono che sì l'immagine è uguale
o è la stessa immagine con il 90% di confidenza
e questa è la parte secondo me più opaca attualmente
forse anche per un motivo specifico
cioè per non far capire troppo nel dettaglio
però dico opaca perché comunque in effetti
già Apple non ti dice il numero di quella soglia
però nel momento in cui ti dice
ok LASH è univoco per l'immagine
però è in grado di riconoscere il sistema
immagini in cui sono stati cambiati i colori
o come dicevi tu ruotate eccetera eccetera
deve comunque avere all'interno
qualche sorta di informazione specifica
facessi soltanto un'analisi numerica
se vai a fare le somme eccetera
quindi il punto è che evidentemente
c'è comunque in questo sistema
che infatti è stato chiamato Neural HASH
un qualcosa che riconduca bene o male
a delle caratteristiche della fotografia
anche appunto se questa subisce delle
poi ovviamente essendo sistemi
di reti neurali, intelligenza artificiale eccetera
è difficile capire esattamente quali siano
però è interessante quello che dicevi tu
mi interessa sapere se qualcuno ha
nel suo cellulare la foto di questo terrorista
sicuramente verrà utilizzato poi
anche per fare delle cose losche
diciamo se una forza di polizia
tutti quelli che hanno fotografie
Apple non potrebbe proprio farlo
perché lei non ha quelle immagini
quindi dovrebbero esserci queste fotografie
diciamo all'interno del database
di questo ente che si occupa solo
quindi dovrebbe essere colluso
migliaia e milioni di immagini
e comunque potremmo non ottenere il risultato
proprio di quella persona per dirti
non c'è quella foto che hai tu
non possono collimare le due cose
perché il sistema non va a cercare
quella persona ma va a cercare
quella immagine quindi se non hai quella immagine
sostanzialmente non viene rilevato
tra l'altro c'è anche il discorso del limite numerico
per cui è un sistema che difficilmente
per come Apple ha pensato si può
piegare diciamo ad applicazioni
poco lecite almeno questa è stata la mia impressione
tra l'altro comunque ricordiamoci che
tornando al discorso di prima che sono resistenti
è un po' come l'algoritmo che ricerca
che è famosa, protetta da copyright
in strada quindi si sente male
della vostra televisione intanto che guardate
il video verrà individuato e bloccato
quindi abbiamo già davanti a noi
infatti poi se tu però la canti
a me non è mai successo di vedere
dei video in cui ci sono per esempio
delle cover completamente rifatte
che vengano beccati da questo sistema
chissà se magari non ce ne sono stati tanti altri
oppure se quello lì sia stato beccato
ma poi facendo appello siano riusciti
lato nostro è un po' difficile da
e Apple l'ha solo applicato a qualcos'altro
in una certa qual misura possiamo
in Europa magari negli Stati Uniti
forse non verrebbe usata in maniera
Cina, Russia, dicono niente questi nomi
però scusami Luca se ti interrompo
come potrebbero utilizzarlo perché
secondo me per come è strutturata la cosa
nelle immagini di tutti quanti
proteste in piazza contro il governo
che possono a una rete neurale
che cosa ritraggono quelle immagini
gente ammassata che potrebbe essere
potrebbe comunque essere un dato in più
se io ho capito come funziona il sistema
e non è detto che io l'abbia capito per carità
la tecnologia che funziona in locale
funziona solo per generare un hash
in cui piccolino c'è un manifesto
e poi devi sperare che però ne abbiano
in un certo numero da superare il limite
che ha imposto Apple da far scattare l'allarme
collusa per guardare queste immagini
salito insieme su una serie di
e sta parlando alla folla durante
una protesta potrebbe la sua immagine
però c'è da dire che anche tecnicamente
il database, l'elenco di questi hash
richiede un aggiornamento di iOS per essere
si possa mettere in piedi una cosa del genere
non sarebbe del tutto trasparente
c'è da dire che loro hanno detto
nelle loro FAQ che sono uscite
contraccolpo che ha avuto questo annuncio
nel senso che se il governo americano
in qualche maniera venisse a dire
sarebbe un disastro e non potrebbero fare altro
che accettare il fatto di avere
inserito una tecnologia che potenzialmente
con tutti i sé che tu hai citato
e tutti quelli che noi non abbiamo nemmeno considerato
a delle promesse del genere che
ostacoli tecnici insormontabili
comunque della fiducia ce la mettiamo
vengono usate delle chiavi specifiche
per i due o i più interlocutori
con le quali vengono cifrati i messaggi
e solo il legittimo destinatario
andiamo a chiedere ai server di Apple
e la sua chiave pubblica è questa
perché magari lui ha un iPhone e un iPad
per rispondere con una ulteriore
che è quella dello sceriffo di Nottingham
riguardo alle loro assicurazioni
guardiamo un attimo la cosa da lontano
perché se dovessimo immaginare
perché Apple ha fatto questa cosa
non è che Tim Cook si è svegliato
sicuramente c'è una situazione
ma specialmente quello degli Stati Uniti
per cui esistono queste grandissime aziende
perché sono sempre state spronate
sostenute dalle attività di governo
vedi le varie Google, Microsoft
che adesso vanno ad analizzare
a tappeto tutti i nostri contenuti
Apple era ancora quella che non lo faceva
quindi questo tipo di attività
per anticipare o per rispondere
a delle richieste che magari esistono
tra di loro che noi non conosciamo
non sono ovviamente chiarificate
non sono cose che vengono a dirci pubblicamente
alla cordata di quelli che danno accesso
quella sì anche di intelligenza artificiale
controllata praticamente in remoto
dei nostri contenuti nel cloud
e quindi la soluzione di Apple
principalmente per tutelare i minori
perché giustamente questa è una di quelle cose
che fa breccia un po' su tutti
e quindi è facile ottenere consensi
bene, allora io realizzo un sistema
ma lo faccio con il mio metodo
che secondo me, secondo ovviamente
tutela meglio la nostra privacy
e a me sembra filare come discorso
noi in realtà stiamo però dando
perché addirittura utilizza il nostro stesso telefono
se noi non utilizziamo il cloud di Google
Google non può analizzare la nostra foto
se noi non utilizziamo il cloud foto
non viene attivato questo sistema
quindi comunque Apple ha trovato
l'escamotaggio in modo tale da
entrare sul nostro telefono ok
ma solo se stiamo utilizzando il servizio cloud
delle due cose per riuscire a rispondere
a quelle che potevano essere le richieste
senza in effetti fare quello che hanno fatto
ed è vero che noi dobbiamo certamente
e non è facile come giustamente dici tu
perché comunque Apple è sempre un'azienda
più delle altre abbia dimostrato
di essere attenta alla privacy
in fin dei conti deve sempre tutelare le sue attività
vedi quello che ha fatto in Cina
Apple si sta muovendo sul filo del rasoio
qualcuno l'ha chiamata slippery slope
quindi decisamente una strada scivolosa
è perché è stato deciso di fare questo
secondo me è quello che ti ho detto prima io
già da tempo persone che gli bussano alla porta
ehi ciccio ci devi fare guardare
tutto quello che c'è nel cloud
e questa secondo me è stata la pressione
e questa è stata la risposta che hanno dato
per dire facciamo la stessa cosa
magari a queste pressioni continue
obblighi legislativi in arrivo
sulle applicazioni di messaggistica
comprensione di come funzionano
che stanno dietro a sistemi e servizi complessi
come quelli di cui stiamo parlando
ci tiriamo sicuramente addosso
scegliamo il male minore rispetto
a un altro scenario in cui noi non facciamo niente
avete un mese per mettervi in regola
dopodiché potete anche smetterla
di vendere iPhone in questo paese
questo sarebbe sicuramente più grave
le braghe perché così hanno dovuto fare
in cui Apple c'è pur rispettando
evitare di usare i servizi cloud
avere questo compromesso in Cina
e comunque avere accesso a tante altre
cose che ci mette a disposizione
totale integrità morale da parte
dicono no io non ho intenzione di scendere
a compromessi quindi piuttosto me ne vado
è sempre un argomento difficile
ricordiamolo perché l'ho già detto
Apple è un'azienda cioè è normale
che per quanto possa avere dei principi
diciamo alla persona agli utenti alla privacy
rispetto alle altre aziende ed è questo
è palese sicuramente lei ci fa gioco
anche sul fronte della comunicazione perché
ci sono tante cose che fa Apple
diversamente questa alla fine è una di quelle
alle altre aziende a cui affidiamo
dare la nostra foto nel cloud ad Apple
utilizzare uno degli altri cloud che abbiamo
visto come funziona cioè alla fine
io non voglio fare il discorso
proprio dio me ne scansi e liberi
ad oggi proprio a livello puramente personale
nel momento in cui devo mandare
di qui sopra quindi a parte il discorso
quindi del mio archivio personale
il mio NAS dove non entra nessuno
ma se io utilizzo un servizio cloud
o se utilizzo delle piattaforme social
di maggiore serietà e sicurezza
non soltanto ha delle logiche differenti
delle altre a quella che può essere
anche perché alla fine è un loro punto
distintivo è un punto su cui hanno
gettare totalmente alle ortiche
quello che alla fine è un vantaggio
seppur riconosciuto e apprezzato
da una minoranza delle persone
più che altro a me hanno detto
boicottare Apple basta non comprate
più gli iPhone perché dopo questa
cosa fai compri un Android e mandi
le foto su Google Photo è peggio
cioè lo vedi che è peggio o no
io lo vedo peggio perché loro proprio
vai a guardare la privacy policy
tutto anche gli allegati di Gmail che mandi
è il loro business cioè loro giocano su quello
ad Apple nei confronti dei nostri dati
questa piccola sterzata piccola o
grande a seconda del vostro punto di vista
questa piccola o grande sterzata di Apple
gli equilibri chiaro è che c'è stata
attivabile a scelta del genitore
che chiunque ci offra un servizio
e la tua scelta è se accettare le regole
godere del servizio oppure non accettare
viceversa prendiamo un Facebook a caso
che noi possiamo scegliere di non avere
sono sparsi in giro per il web
un pochettino veniamo tracciati lo stesso
anche se noi magari non abbiamo mai creato un account
Photo Library perché poi è di questo sottoinsieme
non appoggiarsi a questo servizio
o arrangiarsi con NAS e cose del genere
se lo riteniamo tanto offensivo
tu possa indignarti perché vanno solo
a controllare queste cose orribili
però è anche vero che il discorso
sono la scusa tirata fuori sempre
magari il primo passo e poi chissà cosa viene dopo
l'importante secondo me è che ci sia la massima
non sono entusiasta di questi cambi
perché comunque possono indicare
né contro perché sono argomenti
veramente complessi e sfaccettati
e onestamente non mi sento sufficientemente
conti come quella di tanti altri
quindi avranno avuto le loro ragioni
avranno fatto il loro bilancio
avevano convenienza a fare questa mossa
che da oggi cambia questa cosa
e solo negli Stati Uniti per il momento
di arrivo di questo cambiamento
iniziamo a capire cosa succede
tutto il discorso privacy eccetera
alla fine uno può chiaramente dire
neanche la ricordo esattamente