Λίλιαν Μήτρου: «Όταν κλικάρετε “συμφωνώ”, χρειάζεστε 25 μέρες για να διαβάσετε πού συμφωνείτε»

97

Η καθηγήτρια του Τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου μιλάει στη LiFO για το τι πραγματικά κάνει ο «αλγόριθμος» στη ζωή μας και πόσο κινδυνεύουν τα δικαιώματά μας απ’ όσα το αυτοματοποιημένο κράτος και οι ιδιωτικοί φορείς γνωρίζουν για εμάς.

Ακόμα και αν δεν γνωρίζουμε επαρκώς και με τεχνικούς όρους την αδιαμφισβήτητη εισβολή του αλγόριθμου στη ζωή μας, την αντιλαμβανόμαστε πολλές φορές κατά τη διάρκεια της καθημερινότητάς μας: πληκτρολογούμε λίγα γράμματα από αυτό που θέλουμε να αναζητήσουμε στο Google και –ω του θαύματος– κάτω από το πεδίο αναζήτησης αναγράφεται ολόκληρη η λέξη ή ακόμα και η φράση.

Συζητάμε με συναδέλφους στο γραφείο για τον επόμενο προορισμό των διακοπών μας και την επόμενη φορά που θα επιχειρήσουμε να ανοίξουμε το gmail μας για να τσεκάρουμε το ηλεκτρονικό ταχυδρομείο «παίζει» διαφήμιση από το συγκεκριμένο παραθεριστικό θέρετρο…

Και ενώ προσπαθούμε να καταλάβουμε το «πώς» και το «γιατί» αυτής της αυτοματοποίησης, κάποιο πρόγραμμα τεχνητής νοημοσύνης μπορεί πανεύκολα να επεξεργαστεί μια φωτογραφία μας σαν να βρεθήκαμε σε αυτό το μέρος, ενώ, για την ώρα, δεν έχουμε πατήσει ποτέ εκεί. Τα αποδίδουμε όλα στον αλγόριθμο, όμως τι είναι αυτό; Πόσο ελεύθερο του έχουμε δώσει στη ζωή μας και πού αρχίζει η κατάσταση να γίνεται εφιαλτική; Υπάρχουν νόμοι και δικλείδες προστασίας της ιδιωτικότητάς μας; Μπορεί ο αλγόριθμος να είναι δίκαιος; Να είναι ηθικός; Να δικάζει; Πόσο μπορεί να εμπλέκεται στη ζωή μας και πόσο κιδυνεύουν τα δικαιώματά μας από κράτη, οργανισμούς και ιδιωτικούς φορείς που γνωρίζουν τα πάντα ή, έστω, πάρα πολλά για εμάς;

Όλα τα παραπάνω απαντώνται έξοχα μέσα από την έρευνα των Πανεπιστημιακών Εκδόσεων Κρήτης υπό τον τίτλο «Μπορεί ο αλγόριθμος…», του οποίου την επιστημονική επιμέλεια υπογράφει η καθηγήτρια του Τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου, Λίλιαν Μήτρου.

Όλοι μπορούμε να βρεθούμε εκτεθειμένοι. Για μένα το κρίσιμο εν προκειμένω δεν είναι αν έγινε χρήση ενός συστήματος τεχνητής νοημοσύνης. Το βασικό είναι να γνωρίζει αυτός που θα το δει ότι πρόκειται για κατασκευή και όχι για πραγματικότητα. Δηλαδή να έχει κάποιος τη γνώση για το τι ακριβώς είναι αυτό που του προβάλλεται.
Το βιβλίο είναι γραμμένο από νομικούς (Σπύρος Τάσσης, Ηλιάνα Κωστή, Απόστολος Βόρρας, Βασίλης Καρκατζούνης) που ναι μεν κατανοούν τα τεχνολογικά άλματα, ωστόσο δεν ξεχνούν ότι πολύ συχνά η αξία της δημοκρατίας και των θεμελιωδών δικαιωμάτων μας μπορεί είτε να βρίσκεται σε κίνδυνο είτε να αγνοούμε πώς εμείς οι ίδιοι ως ενεργοί πολίτες μπορούμε να την προστατεύσουμε.

Ας πούμε, ένα κορυφαίο παράδειγμα όλης αυτής της συζήτησης για τον αλγόριθμο και την τεχνητή νοημοσύνη είναι αυτό που πραγματικά συμβαίνει όταν ένας ιστότοπος ζητά –και καλά τη συναίνεσή μας– για τη χρήση cookies: πού πραγματικά λέμε «ναι» και πού «όχι» και ποιος στ’ αλήθεια διαβάζει όλα αυτά τα κατεβατά που (μας) εξηγούν πού ακριβώς συναινέσαμε;

Για όλα αυτά και άλλα ενδιαφέροντα συζητήσαμε με την κ. Μήτρου σε μια απόπειρα να κατανοήσουμε πόσα πραγματικά γνωρίζουμε για την πολυσυζητημένη τεχνητή νοημοσύνη, πότε μπορεί να λειτουργεί εις βάρος μας και πώς η αλματώδης εξέλιξή της μπορεί όντως να είναι κάτι καλό για τη ζωή μας.

— Αν έχω καταλάβει καλά από τη διάρθρωση των κεφαλαίων του βιβλίου, η ουσία βρίσκεται στο ότι ο «αλγόριθμος μπορεί» προς τη σωστή κατεύθυνση μόνο αν υπάρχει ξεκάθαρο ρυθμιστικό πλαίσιο. Σωστά;
Καταρχάς, να διευκρινίσουμε ότι τον όρο «αλγόριθμο» τον χρησιμοποιούμε για να προσωποποιήσουμε τη συζήτηση για τις δυνατότητες και τα όρια της τεχνητής νοημοσύνης.

Αναφορικά με την ερώτησή σας, νομίζω ότι εκφράζετε αυτό ακριβώς που επιδιώκαμε, να επιχειρήσουμε μια απάντηση στο ερώτημα εάν «μπορεί ο αλγόριθμος» να είναι δίκαιος, ηθικός, διαφανής, να δικάζει και να διοικεί εκκινώντας από την πεποίθηση ότι πρέπει να επωφεληθούμε από τις θετικές πλευρές της τεχνητής νοημοσύνης, όπως και κάθε τεχνολογίας, αλλά ταυτόχρονα θα πρέπει να είμαστε σε εγρήγορση για να εντοπίζουμε εγκαίρως  τα προβλήματα που η χρήση αλγορίθμων και συστημάτων τεχνητής νοημοσύνης θα δημιουργήσει στην κοινωνία και στα δικαιώματα.

Ανάλογα με την αξιολόγηση των κινδύνων και τον εντοπισμό των προβλημάτων θα πρέπει να φροντίσουμε, μέσω της θέσπισης κανόνων, να προσπαθήσουμε –το τονίζω το «προσπαθήσουμε»– να περιορίσουμε τις αρνητικές συνέπειες ή ακόμα και να τις αποκλείσουμε.

— Με αυτό που λέτε μοιραία έρχομαι στο επόμενο ερώτημα που λέει ότι εάν ισχύουν τα παραπάνω, το σύστημα, το κράτος, η πολιτεία, θα πρέπει να είναι σε μόνιμη εγρήγορση με μια νομοπαρασκευστική επιτροπή και ορδές τεχνικών επί ποδός, για να προλαβαίνει το πρόβλημα που δημιουργείται από κάθε αλλαγή. Γνωρίζοντας τις ταχύτητες του διαδικτύου από τη μία και το ελληνικό slow justice system από την άλλη, κατά πόσο κάτι τέτοιο είναι εφικτό;
Με τα ζητήματα της σχέσης Δικαίου και Τεχνολογίας ασχολούμαι τα τελευταία τριάντα χρόνια. Το μόνιμο πρόβλημα που αντιμετωπίζουμε είναι ότι οι τεχνολογίες, εν προκειμένω οι τεχνολογίες πληροφορικής και επικοινωνιών, εξελίσσονται με γεωμετρικούς, εκθετικούς ρυθμούς, ενώ το δίκαιο, τόσο ως προς την παραγωγή κανόνων δικαίου όσο και ως προς την απονομή δικαιοσύνης, είναι μια κατεξοχήν αργή διαδικασία.

Έχουμε συχνά μπροστά μας ένα πολύ κλασικό δίλημμα, το δίλημμα του Collingridge, όπως αναφέρουμε και στο βιβλίο. Τι λέει αυτό το δίλημμα; Έχεις μια τεχνολογία, η οποία αρχίζει να εμφανίζεται, να εισδύει στις ζωές των ανθρώπων, να διαδίδεται και εν τέλει να χρησιμοποιείται ευρέως.

Ωστόσο, στα πρώτα στάδια δεν έχεις ακόμα επίγνωση της έκτασης και των συνεπειών αυτής της τεχνολογίας, οπότε αναμένεις. Η βασική σκέψη είναι «να επέμβω άμεσα; Μήπως τώρα, πριν εξελιχθεί το φαινόμενο;». Συχνά η απάντηση είναι αρνητική γιατί αφενός πράγματι δεν είναι πάντα ευχερές να διαγνώσεις προβλήματα και παθογένειες εγκαίρως και αφετέρου μια τέτοια απόφαση μπορεί να θεωρηθεί όχι ακριβώς προνοητική αλλά παρεμβατική και περιοριστική ως προς τα δικαιώματα.

Το έχουμε ζήσει αυτό με το διαδίκτυο όπου μια παρέμβαση θα κρινόταν, ιδίως στις πρώτες φάσεις της ανάπτυξής του, ως λογοκριτική και αυταρχική. Μία άλλη επιφύλαξη που καθιστά διστακτικό τον νομοθέτη είναι ότι μπορεί η παρέμβασή του να περιορίζει την καινοτομία, την πρόοδο, την ευημερία, οπότε αναγκαστικά αναμένει για να δει την εξέλιξη.

Όταν, όμως, μια τέτοια τεχνολογία –και θεωρώ ότι η τεχνητή νοημοσύνη είναι ένα τέτοιο πολύ χαρακτηριστικό παράδειγμα– καταλήγει να διεισδύσει, ενίοτε καταλυτικά, στην κοινωνία και στην οικονομία, στη ζωή των ανθρώπων, στην ιδιωτική και δημόσια σφαίρα, τότε φτάνουμε στο εξής πρόβλημα: είναι πια πολύ αργά για ρυθμίσεις. Το δίλημμα, λοιπόν, είναι «πολύ νωρίς» ή «πολύ αργά»; Και φυσικά, πάντα ξέρεις ότι πολύ συχνά η ρύθμιση αντιστοιχεί σε μια προηγούμενη φάση τεχνολογίας.

Για τον λόγο αυτό κατά την κατάρτιση ενός κανονιστικού πλαισίου –νομοπαρασκευαστικά τόσο στην Ελλάδα όσο και σε επίπεδο Ευρωπαϊκής Ένωσης– προσανατολιζόμαστε στη λεγόμενη «τεχνολογικά ουδέτερη ρύθμιση». Αυτό όμως είναι μια φενάκη, διότι όσο και να προσπαθήσεις να κάνεις κάτι που θα καλύπτει και το επόμενο στάδιο, υπάρχουν μια σειρά από προκλήσεις που δύσκολα αντιμετωπίζονται. Γιατί, πρώτον, έχεις αναπόφευκτα κατά νου την τεχνολογία του καιρού σου, δεν μπορείς να ξεφύγεις από αυτό. Δεύτερον, γιατί όταν επιδιώκεις την ουδέτερη ρύθμιση, αυτή που θα αντέξει στη δοκιμασία του χρόνου και την εξέλιξη της τεχνολογίας, καταλήγεις να διατυπώνεις κάτι με τρόπο ευρύ και αόριστο, ενδεχομένως χρήσιμο, ευέλικτο και επιδεχόμενο ερμηνείες που θα προσαρμόζονται στις ραγδαίες αλλαγές.

Αλλά μετά το πρόβλημα μετατίθεται σε αυτόν που θα κληθεί να το εφαρμόσει. Αυτός όμως είναι που ενδεχομένως δεν θα ξέρει τι ακριβώς πρέπει να κάνει, καθώς θα πρέπει να συμμορφωθεί χωρίς να έχει πάντα σαφή οριοθέτηση του τι επιτρέπεται και τι απαγορεύεται. Ως προς τη ρύθμιση της τεχνητής νοημοσύνης, η Ευρωπαϊκή Ένωση προσπαθεί να  περιορίσει αυτόν τον κίνδυνο. Στην Πράξη για την τεχνητή νοημοσύνη, ακριβέστερα το σχέδιο κανονισμού που είναι τώρα υπό συζήτηση, θέτει κάποιες «κόκκινες  γραμμές» π.χ. με την απαγόρευση της χρήσης συστημάτων κοινωνικής βαθμονόμησης, αυτού που ξέρουμε και ως socialscoring.

Ως προς τα υπόλοιπα, και επειδή δεν μπορούμε να έχουμε πάντα σαφείς κανόνες, εισάγονται διαδικασίες «εκτίμησης αντικτύπου» ή υποχρεώσεις διαφάνειας και δημιουργίας μητρώων συστημάτων τεχνητής νοημοσύνης, ώστε να υπάρχει λογοδοσία και να καθίσταται δυνατός ο έλεγχος από τις αρμόδιες Αρχές, όταν οριστούν. Ωστόσο, πιο πολύ, αν θέλετε, όλα αυτά φαίνεται να είναι διαδικαστικά παρά ουσιαστικά.

— Γίνεται τεράστια συζήτηση για την κατασκευασμένη με τεχνητή νοημοσύνη φωτογραφία του διασώστη της ΕΜΑΚ στους σεισμούς της Τουρκίας. Μπερδεύτηκε πολύς κόσμος με αυτή την εικόνα, ακόμα και πολιτικοί ή δημοσιογράφοι. Πού στεκόμαστε αναφορικά με την «κατασκευή» τέτοιων εικόνων;
Κοιτάξτε, ακόμα κι εγώ που ισχυρίζομαι ότι έχω γνώση και είμαι προσεκτική, έχω πέσει θύμα αυτού που λέμε fake news ή fake αναρτήσεων, προσπαθώντας να βοηθήσω με την κοινοποίηση μιας ανάρτησης με αίτημα την παροχή βοήθειας. Έκτοτε προσπαθώ να είμαι πάρα πολύ προσεκτική στο τι κοινοποιώ, αναμεταδίδω, διαδίδω. Θέλω να πω ότι όλοι μπορούμε να βρεθούμε εκτεθειμένοι.

Για μένα το κρίσιμο εν προκειμένω δεν είναι αν έγινε χρήση ενός συστήματος τεχνητής νοημοσύνης. Το βασικό είναι να γνωρίζει αυτός που θα το δει ότι πρόκειται για κατασκευή και όχι για πραγματικότητα. Δηλαδή να έχει κάποιος τη γνώση για το τι ακριβώς είναι αυτό που του προβάλλεται. Αν εγώ γνωρίζω ότι είναι μια παραποιημένη εικόνα, μπορώ να το αποδεχτώ και να το αξιολογήσω αντιστοίχως. Δεν μπορώ να αποδεχτώ την παραπλάνηση του αποδέκτη του μηνύματος για να τον φορτίσω συναισθηματικά ή για να δημιουργήσω τεχνηέντως «κλίμα».

— Ναι, αλλά γνωρίζοντας ότι η τεχνητή νοημοσύνη μπορεί να «τοποθετεί» ανθρώπους σε μέρη που δεν υπήρξαν ποτέ, δεν υπάρχει ένα ηθικό ζήτημα εδώ;
Ο αντίλογος θα μπορούσε να λέει ότι αφού υπάρχει κάποιος που εξαρχής δηλώνει, που καθιστά σαφές ότι η εικόνα είναι κατασκευή, πρόκειται για άσκηση της ελευθερίας της δημιουργίας, της ελευθερίας της έκφρασης. Το να τον ποδηγετήσεις και να τον περιορίσεις χάριν της «προστασίας του κοινού» μπορεί να παραβιάζει αυτά τα κρίσιμα για την αυτονομία του προσώπου και την ανάπτυξη της προσωπικότητας δικαιώματα.

Εκείνο που απασχολεί εμένα είναι η παραπληροφόρηση, ιδίως υπό την εκδοχή της λεγόμενης disinformation, δηλαδή της σκόπιμης και κεκαλυμμένης διάδοσης ψευδών ειδήσεων προκειμένου να επηρεαστεί η κοινή γνώμη. Με απασχολεί το πώς αντιμετωπίζεται από το Δίκαιο και κυρίως πόσο ευχερές είναι να αντιμετωπιστεί.

Το κρίσιμο, λοιπόν, και εδώ είναι πώς οριοθετείς τι επιτρέπεται και τι όχι. Η οριοθέτηση δεν είναι εύκολη. Εν γένει η οριοθέτηση του νόμιμου, του επιτρεπτού και του παράνομου, ανεπίτρεπτου στον ψηφιακό κόσμο φαίνεται δυσχερέστερη απ’ ό,τι στην εξωδικτυακή ζωή.

Πολύ συχνά λέω στους φοιτητές μου ότι θα ξεκινάμε με μια βασική αρχή: «Ό,τι απαγορεύεται offline, απαγορεύεται και online». Δηλαδή πρέπει να δοκιμάζεις να μεταφέρεις την ίδια συνθήκη στην πραγματική ζωή και «εκεί» να σκεφτείς αν θα συμπεριφερόσουν έτσι, αν θα ντρεπόσουν να πράξεις ό,τι θα έπραττες στον δικτυακό κόσμο ή θα είχες σοβαρές ηθικές αναστολές είτε γιατί απαγορεύεται είτε γιατί εικάζεις ότι κάνεις κάτι πραγματικά κακό, απαράδεκτο. Ακόμη και αν δεν ξέρεις τον κανόνα που το απαγορεύει, η κοινωνική σου συνείδηση αποφαίνεται ότι αυτό δεν είναι αποδεκτό. Τότε απλώς δεν το κάνεις.

— Να, ένας γενικός, ωστόσο αρκετά ξεκάθαρος κανόνας, λοιπόν...
Ε, ναι. Είναι εκεί που αναρωτιέσαι «επιτρέπεται να βρίσω, να συκοφαντήσω, να προσβάλω τον άλλον;», «αν ήμασταν πρόσωπο με πρόσωπο, θα συμπεριφερόμουν, όπως συμπεριφέρομαι πίσω από το πληκτρολόγιο» και την ανωνυμία που αυτό συχνά μου προσφέρει.

— Πόσο εύκολο και πόσο ανέφικτο ταυτόχρονα!
Ξέρετε γιατί; Διότι η τεχνολογία μάς εθίζει και σε μια αποστασιοποίηση που μας δίνει την αίσθηση ότι όλα επιτρέπονται. Σου δίνει την αίσθηση ότι κάτι είναι αποδεκτό, ενώ δεν είναι. Θα αναφέρω κάτι άλλο που δεν είναι ακριβώς το ίδιο με τη συζήτηση που έχουμε αλλά αντικατοπτρίζει αυτό το όριο μεταξύ πραγματικής ζωής και διαδικτύου. Ας πούμε, θα πηγαίνατε ποτέ σε ένα βιβλιοπωλείο να πάρετε ένα βιβλίο, χωρίς να το πληρώσετε, στη συνέχεια να το φωτοτυπήσετε και μετά –στην καλύτερη των περιπτώσεων– να το επιστρέψετε; Όχι στην πραγματική ζωή. Το κάνουμε κάθε μέρα σε ψηφιακό περιβάλλον, ενώ στο εξωδικτυακό δεν θα διανοούμασταν καν. Στον ψηφιακό κόσμο η ευχέρεια με την οποία δρούμε έχει δημιουργήσει σοβαρές παρανοήσεις.

— Μα αυτή δεν ήταν και η μαγεία του διαδικτύου; Ότι όλα φαντάζουν προσιτά, ότι έχουμε άπειρη πρόσβαση στην πληροφορία που πολλές φορές είναι και απολύτως δωρεάν;
Ακριβώς. Με μια βασική διαφορά σε σχέση με αυτό που αναφέρετε. Μια αλήθεια που πολλοί αγνοούμε είναι ότι δεν είναι δωρεάν! Στην πραγματικότητα πληρώνουμε κανονικότατα σχεδόν για καθετί που κλικάρουμε, για κάθε πληροφορία και ιστότοπο και παιχνίδι στο οποίο αποκτούμε πρόσβαση. Συνήθως, λοιπόν, πληρώνουμε με τα προσωπικά δεδομένα μας.

— Σωστά. Την οποία συναίνεση για τα cookies συνήθως την αποδεχόμαστε χωρίς πολλά πολλά και χωρίς πολύ ψάξιμο, γιατί όλα αυτά τα κατεβατά περί «νομίμων συνεργατών» συνήθως δεν τα διαβάζει ποτέ κανείς την ώρα που βιάζεται ή προχωρά σε κάποια συναλλαγή που δεν μπορεί να διεκπεραιώσει αλλιώς, οπότε για ποια συναίνεση μιλάμε;
Ακριβώς. Αυτό που περιγράφετε είναι αυτό που κάνει ένας μέσος χρήστης του Διαδικτύου που εν συντομία το λέμε «just click submit» και έχει ενδιαφέρον εδώ το πώς αντιμετωπίζουμε τη συγκατάθεση.

Ξέρετε, η «συγκατάθεση» έχει προβληθεί πάρα πολύ ως εκείνη η λύση που όλα μπορεί να τα θεραπεύσει, γιατί σε τελευταία ανάλυση εσύ αποφασίζεις. Όμως για «τι» ακριβώς αποφασίζεις και με ποια γνώση, ποιες προϋποθέσεις συγκατατίθεσαι. Ακριβώς αυτήν τη συζήτηση έχουμε με τους υποψήφιους διδάκτορές μου και σε ένα ερευνητικό έργο το οποίο το ονομάσαμε Obama και το οποίο αφορά τη συμπεριφορική, στοχευμένη, εξατομικευμένη διαφήμιση, τις προϋποθέσεις και τις συνέπειές της.

Ένα από τα ζητήματα που απασχολούν πολύ είναι η υφαρπαγή της συγκατάθεσης, όπου εσύ έχεις την ψευδαίσθηση ότι γνωρίζεις ότι έχεις συμφωνήσει και αυτοί που παρέχουν την (όποια) υπηρεσία έχουν την ψευδαίσθηση ότι είναι απολύτως καλυμμένοι. Ότι όλο αυτό συμβαίνει σε ένα πλαίσιο νομιμότητας ή έστω νομιμοφάνειας. Όμως η αλήθεια είναι ότι καταρχάς σχεδόν ποτέ δεν έχεις διαβάσει τους όρους χρήσης.

Η πληροφόρηση του χρήστη συνιστά μια πολύ ενδιαφέρουσα πτυχή: διατυπώνεται έντονα, και ορθώς, η απαίτηση να δίνεται στον χρήστη πλήρης εικόνα αναφορικά με το σε τι ακριβώς δίνει τη συγκατάθεσή του. Αποτέλεσμα: ατελείωτα κείμενα, σελίδες επί σελίδων. Ο G. Buttarelli, που είχε διατελέσει Ευρωπαίος Επίτροπος Προστασίας Δεδομένων, είχε υπολογίσει ότι απαιτούνται 25 ημέρες για να διαβάσουμε όλα τα κείμενα ενημέρωσης που αντιστοιχούν στις «συγκαταθέσεις» που δίνουμε. Και ας υποθέσουμε ότι τα διαβάζουμε; Τι πραγματικά καταλαβαίνουμε απ’ όλες αυτές τις λεπτομέρειες;

Ακόμα και ο πιο ειδικευμένος, προσεκτικός χρήστης πολλές φορές αναρωτιέται σε τι ακριβώς παρείχε τη συναίνεσή του. Υπάρχουν και οι λεγόμενες «γκρίζες ζώνες», τα dark patterns, τα σκοτεινά μοτίβα, που σε κατευθύνουν προς μια επιλογή που νομίζεις ότι είναι και δική σου!
Εκεί καταλήγουμε στο ότι η πολλή πληροφόρηση παύει να συνιστά πληροφορία αλλά ένα είδος παγίδευσης του προσώπου υπό το κάλυμμα της εκτενούς ενημέρωσης. Η τάση, λοιπόν, είναι το «συμφωνώ σε όλα».

Πρέπει να σας πω ότι υπάρχει συζήτηση στην Ευρωπαϊκή Ένωση και προτάσεις ώστε να μην επιτρέπεται το profiling των ανθρώπων με βάση στο τι έχουν δώσει τη συγκατάθεσή τους, ή πού έχουν πλοηγηθεί, ή ποια πληροφορία έχουν αναζητήσει. Ακριβέστερα, να μην επιτρέπεται η λεγόμενη «συμπεριφορική στοχευμένη διαφήμιση» ανάλογα με την κατηγορία ή την ομάδα-στόχο στην οποία έχουν καταταχθεί, π.χ. «η συγκεκριμένη χρήστρια (ακόμη και αν δεν είναι πάντα προφανής η ταυτότητα) ενδιαφέρεται «για δίαιτες» ή για «η γιόγκα για κυρίες άνω των 50».

Οπότε προκύπτει το εξατομικευμένο προφίλ και οι διαφημιζόμενοι και διαφημιστές απευθύνουν εξατομικευμένη διαφήμιση προκειμένου να δελεάσουν τον υποψήφιο αγοραστή/χρήστη. Η συζήτηση, λοιπόν, για το εάν και σε ποια έκταση πρέπει να ρυθμιστεί αυτό γίνεται ακριβώς γιατί συχνά πρόκειται για μια συγκατάθεση-παγίδα.

Η συζήτηση για τα cookies που επισημάνατε είναι πολύ παλιά. Το συζητάμε και το έχουμε ρυθμίσει στην Ελλάδα με τον νόμο 3471 ήδη από το 2006 σε μεταφορά Οδηγίας από το 2002: η αποδοχή και η εγκατάσταση cookies και οποιουδήποτε –μην τρομάξετε με τη λέξη– κατασκοπευτικού λογισμικού, γιατί για spyware μιλάμε, προϋποθέτει ενημέρωση και συγκατάθεση. Πώς επιδιώκεται και πώς δίνεται αυτή η συγκατάθεση;

Ακόμα και ο πιο ειδικευμένος, προσεκτικός χρήστης πολλές φορές αναρωτιέται σε τι ακριβώς παρείχε τη συναίνεσή του. Υπάρχουν και οι λεγόμενες «γκρίζες ζώνες», τα dark patterns, τα σκοτεινά μοτίβα, που σε κατευθύνουν προς μια επιλογή που νομίζεις ότι είναι και δική σου! Μερικές φορές, ακόμα και το λεκτικό, που υποτίθεται πως όσοι ασχολούνται με την επικοινωνία το επιμελούνται, παίζει ρόλο. Εκείνο το «εντάξει, το ‘πιασα!» που εμφανίζεται όταν μια φόρμα σάς ενημερώνει για τα περί της συγκατάθεσης είναι ένας τρόπος για να δημιουργηθεί κλίμα αποδοχής και συγκατάθεσης.

— Κατανοητό. Όταν σου λένε «ναι, το ‘πιασα» αισθάνεσαι και μια αμηχανία μήπως είσαι βραδύστροφος και δεν κατάλαβες;
Ε, ναι. Δεν θέλω να μπω στα χωράφια άλλης επιστήμης, αλλά το «ναι, το   χω» είναι και ένας τρόπος για να αισθανθείς ότι δεν επιτρέπεται να υπολείπεσαι γνώσης και στοιχειώδους εξυπνάδας.

— Πάμε στο κομμάτι των ethics. Τι κάνουμε με αυτά; Υπάρχει κάτι που δεν έχουμε κατανοήσει όταν μιλάμε για ethicswashing;
Για να μιλήσουμε για AI ethics και ethicswashing, αναγκαστικά θα πρέπει να κάνουμε μια μικρή αναδρομή. Να πούμε καταρχάς ότι τεχνητή νοημοσύνη υπάρχει εδώ και 70 και πλέον χρόνια. Από τότε που ο Turing και άλλοι επιστήμονες ήδη στη δεκαετία του ’50 άρχισαν να ερευνούν αν ένας αλγόριθμος μπορεί να λειτουργήσει και να κάνει πράγματα με τρόπο που δεν θα τον ξεχωρίσεις από άνθρωπο. Από τότε μιλάμε στην ουσία για την έννοια του ΑΙ, της τεχνητής νοημοσύνης.

Στην ουσία επρόκειτο για υπόθεση πανεπιστημίων και ερευνητών επί δεκαετίες. Εδώ και λίγα χρόνια, όμως, βρισκόμαστε σε μια φάση που διαφοροποιείται από ποσοτική και ποιοτική άποψη: έχουμε μεγάλη υπολογιστική ισχύ και αποθηκευτική δυνατότητα, έχουμε μεγάλη διαθεσιμότητα πληροφορίας, μεγάλα σύνολα δεδομένων (bigdata), αισθητήρες και Διαδίκτυο των Πραγμάτων όπου μπορούμε να συλλέξουμε πληροφορία από παντού, μεγάλη δικτύωση, ισχυρά δίκτυα.

Και μεταβαίνουμε στο επόμενο στάδιο που λέγεται τεχνητή νοημοσύνη, όμως πια σε πάρα πολλές διαστάσεις και παντού. Οπότε φτάνουμε στην εξής ενδιαφέρουσα φάση, η αρχή της οποίας τοποθετείται το 2016-17: η τεχνητή νοημοσύνη διαδίδεται και επεκτείνεται και σε χρήσεις που δεν φανταζόμασταν.

Η Siri και η Αlexa, οι εφαρμογές που προτείνουν λέξεις, διορθώσεις και κατευθύνσεις, καθώς έχουν καταγράψει προηγούμενα μηνύματα, αναζητήσεις, διαδρομές μας, ακόμα και το GoogleTranslate, ε, όλα αυτά είναι χρήση τεχνητής νοημοσύνης, ακόμα και αν δεν το αντιλαμβανόμαστε. Έχουμε όλη αυτήν τη συζήτηση και από το 2018 αρχίζει να τίθεται το ζήτημα των κανόνων. Η αρχική απάντηση σ’ αυτό ήταν «δεν μπορούμε να ρυθμίσουμε την τεχνητή νοημοσύνη», «γιατί θα εμποδίσουμε την καινοτομία», «γιατί δεν μπορούμε να γνωρίζουμε από πριν τι θα προκύψει» και κατά συνέπεια ας περιοριστούμε και ας επενδύσουμε στην αυτορρύθμιση, σε κανόνες ηθικής και δεοντολογίας.

Αυτό ήταν και το εργαλείο που θεωρήθηκε ως το μόνο αποδεκτό ή, έστω, εφικτό. Ήδη από το 2019 έχουμε περίπου πληθώρα κείμενων αυτορρύθμισης που προέρχονται από διάφορους φορείς ή μεγάλους συνδέσμους εταιρειών που καταθέτουν στην ουσία ένα είδος αυτοδέσμευσης για τη χρήση της τεχνητής νοημοσύνης.

Πλέον τα κείμενα αυτά έχουν υπερβεί κατά πολύ τα 100. Κι άμα τα διαβάσετε, ανεξαρτήτως της προέλευσής τους, είτε από τον δημόσιο ή τον ιδιωτικό τομέα, διεθνείς οργανισμούς, από την άλλη πλευρά του Ατλαντικού ή της ασιατικής ηπείρου, όλα αποτελούν μια κατάθεση δέσμευσης για διαφάνεια, ισότητα, έλλειψη προκαταλήψεων, πληροφόρηση, την αποφυγή της βλάβης για τον άνθρωπο. Όλα είναι εξαιρετικά στη θεωρία, αλλά συνήθως δεν έχουν καμία πρόβλεψη για κανέναν μηχανισμό εποπτείας και εφαρμογής.

Στο πλαίσιο αυτό δεν ήταν λίγοι αυτοί που υπαινίχθηκαν ότι πρόκειται εν τέλει για ένα ethicswashing, δηλαδή το ξέπλυμα διά της ηθικής, εν ολίγοις αφού έχω το πλαίσιο ηθικών αρχών, δεν χρειάζομαι νομικά δεσμευτικούς κανόνες. Η προσπάθεια ήταν να καθυστερήσει η υιοθέτηση δεσμευτικών κανόνων με έλεγχο και κυρώσεις. Εδώ αξίζει να αναφέρω ότι το σχέδιο που συζητείται στην Ευρωπαϊκή Ένωση από το ’21 και μετά για την Πράξη για την Τεχνητή Νοημοσύνη προβλέπει κυρώσεις ακόμα πιο υψηλές και από αυτές που προβλέπονται στον Γενικό Κανονισμό Προστασίας Δεδομένων. Οι παραβάτες των κανόνων θα επαπειλούνται με πρόστιμα της τάξεως του  6% του παγκόσμιου κύκλου εργασιών.

Ακόμη πιο ενδιαφέρον: προβλέπεται και εξω-εδαφική εφαρμογή υπό την έννοια ότι στους κανόνες αυτούς θα υπόκεινται όχι μόνο οι εταιρείες, οι οργανισμοί και οι δημόσιες αρχές των κρατών-μελών της Ευρωπαϊκής Ένωσης αλλά και πάροχοι και χρήστες συστημάτων ΤΝ οι οποίοι βρίσκονται σε τρίτη χώρα, όταν τα στοιχεία εξόδου που παράγει το σύστημα χρησιμοποιούνται στην Ένωση. Οπότε αντιλαμβάνεστε ότι αυτή είναι άλλης τάξεως ρύθμιση που καμία σχέση δεν έχει με την αυτορρύθμιση.

Βεβαίως, για να μην αδικούμε τη συζήτηση για την ηθική, βοήθησε και βοηθάει στο να κατανοήσουμε τα προβλήματα με έναν τρόπο πιο ήπιο, διαδεδομένο και ευσύνοπτο απ’ ό,τι αν ο νομοθέτης ευθύς εξαρχής προχωρούσε κατευθείαν σε ρύθμιση. Βοηθάει πάρα πολύ. Ωστόσο, σε καμία περίπτωση η αυτορρύθμιση της ΤΝ δεν μπορεί να υποκαταστήσει τη ρύθμιση όταν τα διακυβεύματα είναι τόσο σοβαρά και οι κίνδυνοι για τα δικαιώματα υψηλοί.

— Πότε κινδυνεύουμε με εκφασισμό αυτής της κατάστασης; Πότε το «μεγάλο μάτι» της πολιτείας, ας πούμε, που μέσω του e-gov ξέρει τα πάντα για μας, καθίσταται επικίνδυνο για την ιδιωτική σφαίρα; Να αναφέρω εδώ, έτσι, για τη χαρά της συζήτησης, ότι υπάρχει και κόσμος που δεν θέλει και δεν συμφωνεί με τόσο… κράτος στην ιδιωτική του πληροφορία, ακόμα και όταν μιλάμε για αυτοματοποίηση, κατάργηση της γραφειοκρατίας και ούτω καθεξής. Πόσο από τη ζωή μας και την ελευθερία μας εκχωρούμε και πότε πραγματικά κινδυνεύουμε;
Η αλήθεια είναι ότι όταν μιλάμε για το e-gov μιλάμε για μια διαδικασία εθελοντική. Μπορώ να επιλέξω άλλους τρόπους συναλλαγής με το Δημόσιο, να ζητήσω διαγραφή εγγράφων από τη θυρίδα μου ή να τα κρατήσω. Εκεί δεν έχουμε υφαρπαγή της συγκατάθεσης. Πρέπει να σας πω ότι εγώ «φοβάμαι» λιγότερο το κράτος από τον ιδιωτικό τομέα. Διότι το κράτος, ακόμα και στις πιο σκληρές εκφάνσεις του, υπόκειται σε  δημόσιο έλεγχο, στον έλεγχο της νομιμότητας, σε λογοδοσία.

Αξίζει να σημειώσουμε π.χ. ότι, παρά τα προβλήματα, τα εμπόδια, ακόμα και μέσα στην πανδημία, κάποια υπουργεία ήταν σε διαρκή διάλογο, κάποτε και σε αντιπαράθεση με την Αρχή Προστασίας Προσωπικών Δεδομένων, έναν διάλογο εν πολλοίς δημόσιο, με αποτέλεσμα το τελικό προϊόν να είναι ελεγχόμενο, αυτή η συλλογή πληροφορίας να έχει ελεγχθεί από την Αρχή Προστασίας Προσωπικών Δεδομένων. Σημειώστε ότι, σύμφωνα με τον GDPR, η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα παρέχει γνώμη για κάθε ρύθμιση που πρόκειται να περιληφθεί σε νόμο ή σε κανονιστική πράξη, η οποία αφορά επεξεργασία δεδομένων προσωπικού χαρακτήρα.

Και αυτή είναι μια αρμοδιότητα που επιβεβαίωσε με απόφασή του το Συμβούλιο με την απόφαση 1478/22. Δεν υπάρχει συνεπώς περίπτωση να υιοθετηθεί κανονιστική ρύθμιση που θέτει κανόνες για επεξεργασία ευαίσθητων δεδομένων, χωρίς να έχει προηγουμένως ελεγχθεί από την Αρχή Προσωπικών Δεδομένων που διατυπώνει γνώμη. Που σημαίνει ότι στην πλευρά του κράτους υπάρχει ένα «μάτι» που το ελέγχει. Και υπό αυτή την έννοια δεν θα ήμουν πολύ προβληματισμένη σε σχέση με το κράτος.

Εννοείται ότι και εκ των υστέρων πρέπει να υπάρχει ένας επιπλέον έλεγχος. Και τέτοιοι έλεγχοι πραγματοποιούνται: αυτήν τη στιγμή όλες οι Αρχές Προστασίας Δεδομένων στην Ευρωπαϊκή Ένωση κάνουν συντονισμένους ελέγχους για τη «χρήση υπηρεσιών νέφους», του λεγόμενου cloud, από τον δημόσιο τομέα.

Με αναλυτικά ερωτηματολόγια, ο εκάστοτε δημόσιος τομέας καλείται να απαντήσει τι δεδομένα έχει, ποια έχει στο υπολογιστικό νέφος, πόσα διατηρούνται στην Ευρώπη, αν υπάρχει κίνδυνος να διακινηθούν εκτός Ε.Ε. κ.λπ. Το μείζον ζήτημα δεν τοποθετείται στην πλευρά του κράτους. Βέβαια, κίνδυνοι υφίστανται όταν πρόκειται για απολυταρχικές, αυταρχικές, μη δημοκρατικές καταστάσεις και είναι ο λόγος για τον οποίο κάποιες χώρες απέφυγαν για πολύ καιρό συστηματικά τη χρήση αστυνομικών ταυτοτήτων.

Ειδικά στην Ευρώπη πάντα έχουμε στο μυαλό μας την πιθανότητα της εκτροπής, γι’ αυτό η προστασία που παρέχεται είναι πολύ πιο προωθημένη απ’ ό,τι σε άλλες περιοχές του πλανήτη. Και γι’ αυτό υπάρχουν δικλείδες αναφορικά με τον χρόνο τήρησης των δεδομένων, τον προσδιορισμό των προσώπων και φορέων που επιτρέπεται να έχουν πρόσβαση σε μια πληροφορία.

— Έχετε εμπιστοσύνη στον νόμο;
Έχω εμπιστοσύνη στο πλαίσιο που δημιουργεί. Θα ήθελα να σας επισημάνω τις πρόσφατες ρυθμίσεις του νόμου 4961/2022 για τις αναδυόμενες τεχνολογίες. Ο νόμος αυτός έχει ρυθμίσεις για τη χρήση τεχνητής νοημοσύνης. Οι προβλέψεις είναι εξαιρετικά σημαντικές: η χρήση συστημάτων τεχνητής νοημοσύνης στον δημόσιο τομέα για τη λήψη ή την υποστήριξη της λήψης μιας απόφασης απαιτεί να υπάρχει νομοθετική ρύθμιση που να το προβλέπει.

Θα πρέπει να γίνει εκτίμηση αντικτύπου στα δικαιώματα των πολιτών, στην οικονομία, στην εργασία, στην κοινωνία. Θα πρέπει να το συνοδεύει η εκτίμηση αντικτύπου αυτό, μέρος της οποίας θα πρέπει να δημοσιεύεται! Θα πρέπει να ενημερώνονται οι πολίτες, αν πρόκειται να χρησιμοποιηθεί αλγοριθμικό σύστημα που θα υποστηρίζει έστω μία απόφαση της διοίκησης που θα έχει συνέπειες γι’ αυτούς. Ποιος το χρησιμοποιεί, για ποιο σκοπό, και ποια είναι η βάση δεδομένων. Αυτό για μένα είναι είναι εξαιρετικά σημαντικό. Το πώς θα εφαρμοστεί, θα τηρηθεί και το πώς θα ελεγχθεί είναι το ζητούμενο.

— Οπότε καταλήγουμε ότι ο έλεγχος στην τεχνητή νοημοσύνη είναι συνέργεια νομοθετικής ρύθμισης και μηχανισμού που επιβλέπει τις (όποιες) αλλαγές και αποκλίσεις;
Σωστά. Καταλήγουμε επίσης στη διαπίστωση ότι μεγάλο μέρος του ελέγχου μετατίθεται στους ίδιους τους χρήστες των συστημάτων, σ’ αυτούς που εισάγουν και χρησιμοποιούν συστήματα. Είναι η περίφημη λογοδοσία, η περίφημη αυτοδέσμευση. Και είναι και το φόβητρο του υψηλού προστίμου. Είναι μια λογική, εν μέρει ρεαλιστική. Διότι είναι αδύνατον πια, όπως έχει διεισδύσει η τεχνολογία, να έχεις έναν τέτοιο μηχανισμό ελέγχου που θα είναι πανταχού παρών και τα πάντα πληρών. Αδύνατο!

Ακολουθήστε το kefaloniapress.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις