Τον Ιούλιο του 2022, η ελληνική Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (ΑΠΔΠΧ) έγραψε ιστορία στον ευρωπαϊκό χώρο της ψηφιακής προστασίας, όταν επέβαλε πρόστιμο-ρεκόρ ύψους 20 εκατομμυρίων ευρώ στην αμερικανική τεχνολογική εταιρεία Clearview AI. Η συγκεκριμένη εταιρεία αναγνώρισης προσώπων κατηγορήθηκε ότι συνέλεγε, χωρίς συναίνεση, φωτογραφίες από το διαδίκτυο, μεταξύ αυτών και εικόνες Ελλήνων πολιτών, δημιουργώντας μία βιομετρική βάση δεδομένων τεράστιας κλίμακας.
Η απόφαση χαρακτηρίστηκε ως «ιστορική» από την οργάνωση Homo Digitalis, μία ΜΚΟ που δραστηριοποιείται στον τομέα των ψηφιακών δικαιωμάτων, καθώς ήταν η πρώτη φορά που η ελληνική ρυθμιστική αρχή τιμωρούσε τόσο αυστηρά μία εταιρεία για παραβιάσεις του Γενικού Κανονισμού Προστασίας Δεδομένων της ΕΕ (GDPR). Η καταγγελία που οδήγησε στην απόφαση είχε κατατεθεί από κοινού με άλλες ευρωπαϊκές οργανώσεις, αναδεικνύοντας τη σημασία της διακρατικής συνεργασίας στην ψηφιακή εποχή.

Η Clearview AI ιδρύθηκε το 2017 από τον Χοάν Τον-Θατ, έναν επιχειρηματία αυστραλιανής καταγωγής, ο οποίος κατοικεί στις Ηνωμένες Πολιτείες. Το προϊόν της είναι ένα σύστημα αναγνώρισης προσώπου που αξιοποιεί εικόνες προσώπων που έχουν συλλεχθεί μαζικά από ανοιχτές πηγές στο διαδίκτυο: Facebook, Instagram, LinkedIn, ακόμη και από ειδησεογραφικά sites.
Η εταιρεία δεν ζήτησε ποτέ άδεια για αυτή τη συλλογή. Με μια μοναδική φωτογραφία ενός προσώπου, η τεχνολογία της μπορεί να ταυτοποιήσει το άτομο, να εμφανίσει παλαιότερες εικόνες του και να συνδέσει αυτές τις πληροφορίες με δημόσια προφίλ και άλλες προσωπικές πληροφορίες. Πρόκειται ουσιαστικά για ένα εργαλείο που, όπως έχει χαρακτηριστεί, μετατρέπει το ανθρώπινο πρόσωπο σε ένα «κωδικό πρόσβασης» προς τη συνολική ψηφιακή ταυτότητα του πολίτη.
Το προϊόν της Clearview χρησιμοποιείται ήδη από εκατοντάδες αστυνομικές υπηρεσίες στις ΗΠΑ, σε υποθέσεις εγκληματικότητας και αναγνώρισης υπόπτων. Όμως η τεχνολογία αυτή έχει προκαλέσει κύμα αντιδράσεων παγκοσμίως, καθώς παραβιάζει τον θεμελιώδη κανόνα της συγκατάθεσης – πυλώνα του ευρωπαϊκού νομικού πλαισίου για την ιδιωτικότητα.
Η ΑΠΔΠΧ δεν ήταν η μόνη αρχή που έλαβε μέτρα κατά της Clearview. Μέχρι το 2024, αρχές από τη Γαλλία, την Ιταλία, την Ολλανδία και την Αυστρία είχαν επίσης εκδώσει αποφάσεις με τις οποίες ζητούσαν από την εταιρεία να σταματήσει τη συλλογή δεδομένων, να διαγράψει όσα έχει ήδη συγκεντρώσει και να καταβάλει πρόστιμα, τα οποία στο σύνολό τους ξεπερνούν τα 100 εκατομμύρια ευρώ.

Παρά την αυστηρότητα των αποφάσεων, η εταιρεία δεν συμμορφώθηκε. Δεν διέγραψε δεδομένα, δεν απάντησε σε καμία ειδοποίηση και δεν κατέβαλε ούτε ένα ευρώ από τα πρόστιμα που της επιβλήθηκαν. Η Clearview εμφανίζεται να λειτουργεί πέρα από τη σφαίρα επιρροής των ευρωπαϊκών αρχών, ακριβώς επειδή δεν διαθέτει παρουσία –νομική, φυσική ή εμπορική– εντός των συνόρων της ΕΕ.
Αυτό καθιστά τις αποφάσεις των αρχών ουσιαστικά ανεφάρμοστες. Οι ρυθμιστικές αρχές μπορούν να εκδώσουν κυρώσεις, αλλά όχι να τις επιβάλουν. Η Ελλάδα προσπάθησε να αποστείλει την απόφαση εις βάρος της Clearview μέσω του Υπουργείου Εξωτερικών, το οποίο προώθησε την ειδοποίηση στο προξενείο της Νέας Υόρκης. Η διαδικασία κατέρρευσε όταν δεν εμφανίστηκε κανένας εκπρόσωπος της εταιρείας για να παραλάβει την κοινοποίηση.
Η υπόθεση της Clearview φέρνει στην επιφάνεια το δομικό πρόβλημα του ευρωπαϊκού κανονισμού: ο GDPR εφαρμόζεται εξωεδαφικά (δηλαδή και σε εταιρείες εκτός ΕΕ που επεξεργάζονται δεδομένα Ευρωπαίων πολιτών), αλλά η επιβολή του δεν μπορεί να προχωρήσει χωρίς διεθνή συνεργασία ή συμφωνίες.
Η ΕΕ δεν διαθέτει ισχυρό θεσμικό πλαίσιο για την αναγνώριση και εκτέλεση διοικητικών προστίμων από τρίτες χώρες όπως οι ΗΠΑ. Οι αρχές προστασίας δεδομένων καταλήγουν να εκδίδουν «κυρώσεις-φαντάσματα», καθώς χωρίς νομικούς και επιχειρησιακούς δεσμούς, οι εταιρείες απλώς αγνοούν τις αποφάσεις.
Όπως δήλωσε εκπρόσωπος της αυστριακής ΜΚΟ NOYB, που ειδικεύεται στα ζητήματα ιδιωτικότητας: «Η έκδοση μίας απόφασης δεν είναι αρκετή. Πρέπει να συνοδεύεται από πραγματικά εργαλεία επιβολής και αυτά πρέπει να λειτουργούν διακρατικά». Το πρόβλημα αυτό, όπως όλα δείχνουν, δεν περιορίζεται στην περίπτωση της Clearview, αλλά αφορά δεκάδες παρόχους τεχνολογίας που δραστηριοποιούνται παγκοσμίως.

Η αυστριακή οργάνωση Noyub υποστηρίζει τώρα ότι η Clearview συνεχίζει να παραβαίνει το GDPR και το αυστριακό ποινικό δίκαιο, κάτι που σημαίνει ότι η τα στελέχη της μπορούν να αντιμετωπίσουν προσωπικές ποινικές κατηγορίες και ενδεχόμενες ποινές φυλάκισης.
Η Clearview, η οποία δεν έχει γραφεία στην Ευρώπη, δεν έχει καν πληρώσει τα πρόστιμα που της επιβλήθηκαν, δήλωσε στο Reuters ο αυστριακός δικηγόρος Μαξ Σρεμς, επικεφαλής της Noyb, γνωστός για τις νίκες του σε δύο δικαστικές υποθέσεις που ανέτρεψαν την ευρω-αμερικανική συμφωνία ανταλλαγής δεδομένων.
Όπως είπε, η νέα καταγγελία θα δείξει αν οι ποινικές διαδικασίες λειτουργούν όταν οι διοικητικές κυρώσεις αποτυγχάνουν.
Η Αυστρία έχει αναγνωρίσει ορισμένες παραβάσεις του GDPR ως ποινικά αδικήματα. Αν οι εισαγγελείς κάνουν δεκτή την καταγγελία, η υπόθεση θα μπορούσε να δημιουργήσει ποινικό προηγούμενο για την εφαρμογή ποινικών διαδικασιών και θα αύξανε τις πιέσεις στις εταιρείες που επεξεργάζονται βιομετρικά δεδομένα.
«Η Cleaview έχει δημιουργήσει μια τεράστια, παγκόσμια βάση δεδομένων με φωτογραφίες και βιομετρικά δεδομένα, κάτι που της επιτρέπει να ταυτοποιεί πρόσωπα σε δευτερόλεπτα. Μια τέτοια ισχύς είναι εξαιρετικά ανησυχητική και υπονομεύει την ιδέα της ελεύθερης κοινωνίας, όπου η παρακολούθηση είναι η εξαίρεση και όχι ο κανόνας» δήλωσε ο Σρεμς.
Η Clearview προσφέρει δωρεάν τις υπηρεσίες της και Ουκρανία για τον εντοπισμό εχθρικών προσώπων και την αναγνώριση θυμάτων του πολέμου.
H εταιρεία έχει γίνει επίσης δεξί χέρι της αμερικανικής αστυνομίας και συνεργάζεται τώρα με την Υπηρεσία Μετανάστευσης και Τελωνείων (ΙCE) για τον εντοπισμό και τη σύλληψη παράνομων μεταναστών στις ΗΠΑ.

Η Clearview δεν είναι η μόνη εταιρεία που δραστηριοποιείται στον χώρο της αναγνώρισης προσώπου. Η PimEyes, μια άλλη εταιρεία που δηλώνει έδρα στο Μπελίζ, προσφέρει ένα παρόμοιο σύστημα, μέσω ανοιχτού web interface και δυνατότητα αναζήτησης σε πραγματικό χρόνο.
Το οικοσύστημα των startups που παρέχουν τέτοιες υπηρεσίες είναι ανερχόμενο, με πολλές από αυτές να κινούνται σε ένα νομικά γκρίζο τοπίο: φιλοξενούνται σε χώρες χωρίς ισχυρό ρυθμιστικό πλαίσιο, χρεώνουν υπηρεσίες μέσω κρυπτονομισμάτων και δεν διατηρούν επαληθεύσιμα στοιχεία ταυτότητας.
Αυτή η «αποϋλοποιημένη» δομή δυσχεραίνει περαιτέρω τον έλεγχο, καθώς οι παραδοσιακοί τρόποι δικαστικής ή διοικητικής επίδοσης χάνουν κάθε αποτελεσματικότητα.
Απέναντι σε αυτή την πραγματικότητα, οι ευρωπαϊκές αρχές δείχνουν να επιλέγουν την στρατηγική του δημόσιου στιγματισμού: αυστηρές δηλώσεις, υψηλά πρόστιμα, ανακοινώσεις με υψηλό συμβολισμό. Όπως ανέφερε ανώτερος αξιωματούχος της ελληνικής ΑΠΔ: «Δεν περιμένουμε να πληρωθεί το πρόστιμο. Το ζήτημα είναι η συμβολική πίεση και το μήνυμα προς την κοινωνία και τις υπόλοιπες εταιρείες».
Ωστόσο, χωρίς ουσιαστικό συντονισμό, ακόμη και αυτές οι ενέργειες έχουν περιορισμένο αντίκτυπο. Οι ευρωπαϊκές Αρχές Προστασίας Δεδομένων λειτουργούν μεμονωμένα, με ελάχιστα κοινά πρωτόκολλα επιβολής ή νομικής συνεργασίας. Το όραμα για μια ενιαία ψηφιακή νομική τάξη παραμένει, προς το παρόν, μακρινό.
Η υπόθεση της Clearview δεν είναι μόνο μία σύγκρουση για την ιδιωτικότητα, αλλά και ένα τεστ για τη θεσμική αξιοπιστία της Ευρώπης στην εποχή της τεχνητής νοημοσύνης. Οι τεχνολογίες αυτές εξελίσσονται με ιλιγγιώδη ταχύτητα. Το ερώτημα είναι αν το νομικό πλαίσιο μπορεί να τις προλάβει.
Χωρίς έναν ενιαίο ευρωπαϊκό μηχανισμό επιβολής, χωρίς διεθνείς συμβάσεις που να προβλέπουν αμοιβαία εκτελεστότητα αποφάσεων και χωρίς την πολιτική βούληση για σύγκρουση με μεγάλους τεχνολογικούς παρόχους, οι αρχές θα περιορίζονται στον ρόλο του παρατηρητή – ενός αυστηρού μεν, αλλά εν τέλει ανίσχυρου ρυθμιστή.
Η Clearview έχτισε την αυτοκρατορία της αγνοώντας τη συγκατάθεση. Το ερώτημα είναι: Θα αγνοήσει και τις συνέπειες;
Τα πρόσωπά μας δεν μας ανήκουν – Γίνονται μαριονέτες της ΑΙ
Εργαλεία ΑΙ όπως η νέα εφαρμογή βίντεο Sora της OpenAI, η γεννήτρια εικόνων Nano Banana της Google, ακόμη και το AAPL της Apple Image Playground μπορεί να τραβήξει ένα γνήσιο βίντεο ή φωτογραφία και να δημιουργήσει μια εικονική απομίμηση σε λίγα λεπτά. Ενώ υπάρχουν δικλείδες ασφαλείας, οποιοσδήποτε, από ένα καλοπροαίρετο αγαπημένο πρόσωπο μέχρι έναν κακόβουλο απατεώνα, μπορεί να δημιουργήσει ψεύτικες εκδοχές σας που θα ήταν αδιανόητες πριν από λίγα χρόνια, σύμφωνα με την Wall Street Journal.
Ορισμένα μοντέλα ΑΙ είναι αρκετά καλά, και βελτιώνονται, ώστε να ξεγελάσουν τους ανθρώπους ώστε να νομίζουν ότι είναι αληθινά, με πιθανόν καταστροφικά αποτελέσματα.

Η εφαρμογή Sora είναι εν μέρει γεννήτρια βίντεο, εν μέρει κοινωνικό δίκτυο – σαν μια ανάποδη έκδοση του TikTok όπου κάθε κλιπ είναι ψεύτικο. Χρειάζεται μόνο να ποζάρετε για λίγα δευτερόλεπτα για να δημιουργήσει τον ψηφιακό σας σωσία, γνωστό και ως “cameo”, που μπορείτε να χρησιμοποιήσετε, όπως και των φίλων σας για να πρωταγωνιστήσετε σε οποιοδήποτε βίντεο μπορείτε να φανταστείτε. Το avatar μπορεί να μην είναι τέλειο αλλά η ομοιότητα είναι εντυπωσιακή, όπως φαίνεται από μερικά βίντεο της Sora που έδειχναν υποτιθέμενες σκηνές βίας Ελλήνων αστυνομικών κατά υπερηλίκων, που ανέβηκαν σε μέσα κοινωνικής δικτύωσης.
Μπορείτε να ορίσετε περιορισμούς στον τύπο των cameo και στον τρόπο που εμφανίζεστε σε αυτά.
Άλλοι δεν μπορούν να κατεβάσουν ή να εγγράψουν βίντεο με πολλαπλά cameo, και οτιδήποτε δημιουργούν με το cameo σας εμφανίζεται και στον λογαριασμό σας. Μπορείτε να διαγράψετε τις εμφανίσεις σας σε όλους τους λογαριασμούς, αν θέλετε.
Παρά τις προστασίες, είναι ανατριχιαστικό να σκέφτεται κανείς ότι το ψηφιακό του δίδυμο βρίσκεται τώρα κάπου μέσα στην OpenAI.
Το Sora μπλόκαρε βίντεο για την Τέιλορ Σουίφτ και άλλες ζωντανές διασημότητες. Αλλά πολλοί διάσημοι εκλιπόντες, όπως οι Τούπακ, Άινσταϊν, Αβράαμ Λίνκολν, Μπομπ Ρος και Τζον Κένεντι πλανιόνται στις ηλεκτρονικές διαδρομές της ΑΙ. Σε ένα απόκοσμα ρεαλιστικό κλιπ, μια cameo του Μάρτιν Λούθερ Κινγκ είπε: «Έχω ένα όνειρο ότι μια μέρα το Sora θα αλλάξει την πολιτική παραβίασης περιεχομένου».
Η OpenAI λέει ότι λαμβάνει μέτρα για την προστασία του απορρήτου των χρηστών. Στις ρυθμίσεις της εφαρμογής Sora, μπορείτε να αποτρέψετε την εταιρεία από το να χρησιμοποιεί το περιεχόμενό σας για να εκπαιδεύσει τα μοντέλα της.
Υπάρχουν άλλες εφαρμογές βίντεο ΑΙ, συμπεριλαμβανομένων των Vibes της Meta και του Veo της Google, και πιθανότατα θα ακολουθήσουν και άλλες. Και υπάρχει και μια σκοτεινή πλευρά της τεχνολογίας, όπου τα deepfakes χρησιμοποιούνται για να μιμηθούν πραγματικούς ανθρώπους και να κλέψουν χρήματα.

Το κόστος ενός κλεμμένου προσώπου
Για χρόνια, η μετεωρολόγος Μπρι Σμιθ εμφανίστηκε στην τηλεόραση του Νάσβιλ για να πει την πρόγνωση. Στο Instagram, μοιράστηκε κομμάτια της ζωής της με πάνω από 23.000 ακολούθους, αναφέρει η WSj.
Πέρυσι, η Σμιθ έλαβε ένα περίεργο email από έναν άνδρα που είπε ότι ήταν μακροχρόνιος θεατής. Κάποιος παρίστανε την Σμιθ στο διαδίκτυο, προσφέροντας «εικόνες που μόνο ένας σύζυγος θα είχε», έγραψε.
Οι απατεώνες δημιούργησαν ένα βίντεο για να πείσουν τα θύματα ότι οι ψεύτικοι λογαριασμοί της μετεωρολόγου Μπρι Σμιθ ήταν γνήσιοι.
Η μητέρα δύο παιδιών πανικοβλήθηκε. Σύμφωνα με τον θεατή, μια ψεύτικη Σμιθ είχε στείλει εικόνες μέσω της εφαρμογής συνομιλίας Signal με το πρόσωπό της σε ένα ημίγυμνο σώμα, μαζί με ένα βίντεο όπου έλεγε: «Είμαι εγώ, είμαι πραγματικά εγώ». Μόνο που δεν ήταν αυτή.
Οι απατεώνες χρησιμοποίησαν τα deepfakes για να προσπαθήσουν να πείσουν τα θύματα να πληρώσουν 200 δολάρια για πρόσβαση σε έναν ψεύτικο λογαριασμό θαυμαστών της Σμιθ που προσέφερε ακόμη και προσωπικές περιπτύξεις.
«Είναι εξευτελιστικό και τραυματικό να βιώνεις την παραμόρφωση της ταυτότητάς σου χωρίς τη συγκατάθεσή σου», είπε στην WSJ η Σμιθ, η οποία είναι τώρα 43 ετών. Φέτος, βοήθησε στην ψήφιση ενός νόμου του Τενεσί που καθιστά παράνομη την κοινοποίηση ή την απειλή κοινοποίησης τέτοιων deepfakes.
Η Σμιθ παρακολούθησε περίπου 70 ψεύτικους λογαριασμούς στο Facebook. Η Vermillio – μια υπηρεσία που αναζητά την ομοιότητά σας στο διαδίκτυο – βρήκε χιλιάδες ακόμη ψεύτικες φωτογραφίες και βίντεο της Σμιθ και εκατοντάδες λογαριασμούς στο YouTube, το TikTok και αλλού.

Η πραγματική Μπρι Σμιθ
Η προστασία δεν είναι δωρεάν
Ο Διευθύνων Σύμβουλος της Vermillio, Νταν Νίλι, δήλωσε στην WSJ ότι η εταιρεία μπορεί να παρακολουθεί τα αποτελέσματα δημόσιων μοντέλων τεχνητής νοημοσύνης όπως το Sora και τα φόρουμ κοινωνικής δικτύωσης για κακή χρήση του ονόματος και της ομοιότητας των πελατών της. Η υπηρεσία προσφέρει ένα δωρεάν εργαλείο για την αξιολόγηση του κινδύνου σας, με προγράμματα από 10 έως 99 δολάρια το μήνα, ανάλογα με τον αριθμό των αιτημάτων για την αφαίρεση μη εξουσιοδοτημένου περιεχομένου.
Υπάρχουν και άλλες εταιρείες που δραστηριοποιούνται στον τομέα της προστασίας της ομοιότητας από την ΑΙ, συμπεριλαμβανομένης της Loti, η οποία χρεώνει έως και 2.500 δολάρια το μήνα για δημόσια πρόσωπα και διαθέτει ένα δωρεάν πρόγραμμα σε beta έκδοση.
Τα ψεύτικα γυμνά αποτελούν μια τρομακτική νέα πραγματικότητα για τους εφήβους. Μια μελέτη του 2024 από το Κέντρο για τη Δημοκρατία και την Τεχνολογία διαπίστωσε ότι το 15% των μαθητών λυκείου στις ΗΠΑ λένε ότι έχουν ακούσει για μη συναινετικές προσωπικές φωτογραφίες deepfake που απεικονίζουν συμμαθητές τους.
Ο Νίλι είπε ότι η Τεχνητή Νοημοσύνη χρειάζεται καλύτερες δικλείδες ασφαλείας για την προστασία της ταυτότητας και της φήμης των ανθρώπων. Είναι για το καλό των εταιρειών τεχνολογίας. «Πολλοί άνθρωποι, μόλις νιώσουν ασφαλείς, θα νιώσουν καλύτερα που θα ασχοληθούν με την τεχνολογία», είπε.
Μέχρι τότε, τα πρόσωπά μας είναι δημόσιο κτήμα.


Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου