Σύμφωνα με πληροφορίες που έφεραν πρόσφατα στο φως οι Financial Times, η Apple σχεδιάζει ένα σύστημα το οποίο θα «σκανάρει» φωτογραφίες στα iPhone, iPad και iCloud των χρηστών της με στόχο την εύρεση υλικού παιδικής πορνογραφίας. Το νέο σύστημα το οποίο μέχρι στιγμής αφορά μόνο τις ΗΠΑ ίσως θα μπορέσει να βοηθήσει τις αρχές σε έρευνες εγκληματικών υποθέσεων όμως ταυτόχρονα ανοίγει μια κερκόπορτα που ίσως αυξήσει τις νομικές και κυβερνητικές απαιτήσεις όσον αφορά τα δεδομένα των χρηστών.
Το σύστημα αυτό ονομάζεται neuralMatch, θα «προειδοποιεί προληπτικά μια ομάδα ανθρώπινων reviewer εάν πιστεύει ότι εντόπισε παράνομες εικόνες, ενώ η ομάδα των κριτών έπειτα θα κρίνει εάν είναι απαραίτητη ή όχι η ενημέρωση των τοπικών αρχών», σύμφωνα με την Financial Times.
«Σύμφωνα με ανθρώπους που ενημερώθηκαν για τα σχέδια του συστήματος, κάθε φωτογραφία που θα ανεβαίνει στο iCloud στις ΗΠΑ αντιστοιχεί σε ένα ‘κουπόνι ασφαλείας’, που θα υποδεικνύει αν είναι ύποπτη ή όχι. Μόλις ένας ορισμένος αριθμός φωτογραφιών επισημανθεί ως ύποπτος, η Apple θα αποκρυπτογραφεί τις φωτογραφίες και αν είναι όντως παράνομες, θα μεταφέρονται στις αρμόδιες αρχές.»
Λίγες ώρες μετά την κυκλοφορία του αρχικού άρθρου, η Apple επιβεβαίωσε πως το νέο σύστημα θα είναι μέρος του νέου γονικού ελέγχου που θα ενταχθεί στο iMessage στην επόμενη ενημέρωση λογισμικού (iOS / iPadOS 15, watchOS 8 και macOS Monterey) και θα προειδοποιεί τα παιδιά για εικόνες σεξουαλικού περιεχομένου (όπως βλέπουμε και στην φωτογραφία πιο πάνω). Μπορείτε να διαβάσετε περισσότερες πληροφορίες σχετικά με αυτές τις ρυθμίσεις εδώ.
Φυσικά όμως ακόμα και σαν ιδέα όλο αυτό αφήνει πολλά αναπάντητα ερωτήματα. Πώς είναι σίγουρη η Apple ότι το σύστημα αυτό δεν θα εκμεταλλευτεί από κυβερνητικά προγράμματα παρακολούθησης και χάκερς αντίστοιχα; Καθώς αν ο αλγόριθμος είναι τόσο εξελιγμένος για να ανιχνεύει τέτοιου τύπου εικόνες, είναι πιθανό πως με μερικές τροποποιήσεις από κάποιους τρίτους θα έχει ακόμα περισσότερες δυνατότητες. Επίσης δημιουργεί ερωτήματα με το αν η Apple είναι πραγματικά υπέρ της ιδιωτικότητας των χρηστών της, διότι πως γίνεται να ισχυρίζεσαι ότι το cloud και οι υπηρεσίες σου είναι κρυπτογραφημένες, αλλά μπορείς να αφαιρέσεις την κρυπτογράφηση αυτή με το πάτημα ενός κουμπιού;
Αξίζει να σημειωθεί πως μιλάμε για την ίδια εταιρεία που την ίδια στιγμή που μιλά υπέρ της ιδιωτικότητας έχει στενές επαφές με την Κίνα και την αγορά της, και φυσικά εννοείται πως εκεί οποιαδήποτε ρύθμιση/επιλογή που αφορά την ιδιωτικότητα των χρηστών (ακόμα και η χρήση VPN εφαρμογών) είναι απενεργοποιημένη.
Φυσικά πολλοί ειδικοί από τον χώρο της ασφάλειας των υπολογιστών κ.α δεν δίστασαν να σχολιάσουν, όπως έκανε ο Matthew Green, ένας καθηγητής και κρυπτογράφος του πανεπιστημίου John Hopkins, ο οποίος σχολίασε σε ένα tweet «Αυτό το εργαλείο μπορεί να είναι ένα όφελος για την εξεύρεση παιδικής πορνογραφίας στα τηλέφωνα των ανθρώπων, αλλά φανταστείτε πώς θα μπορούσε να χρησιμοποιηθεί από μία απολυταρχική κυβέρνηση»
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Τέλος αξίζει να σημειωθεί επίσης πως όλες οι μεγάλες πλατφόρμες cloud αποθηκευτικού χώρου (Google Drive, OneDrive κτλ) χρησιμοποιούν αντίστοιχα προγράμματα ανίχνευσης παράνομων περιεχομένων, όμως είναι η πρώτη φορά που βλέπουμε μια τόσο εξελιγμένη εκδοχή αυτής της ιδέας που ταυτόχρονα λειτουργεί σε τοπικό επίπεδο (δηλ. τις συσκευές του κάθε χρήστη).