Face Detection, Scan, Scanning, Biometrics, Monitoring
Face Detection, Scan, Scanning, Biometrics, Monitoring
Πηγή Εικόνας: Gerd Altmann - pixabay

Η Ευρωπαϊκή Επιτροπή εξετάζει μέτρα για την προσωρινή απαγόρευση των τεχνολογιών αναγνώρισης προσώπου που χρησιμοποιούνται τόσο από τους δημόσιους όσο και από τους ιδιωτικούς φορείς, σύμφωνα με ένα σχέδιο λευκής βίβλου για την Τεχνητή Νοημοσύνη που έχει αποκτήσει η EURACTIV.

Εάν εφαρμοστούν, τα σχέδια θα μπορούσαν να εκτροχιάσουν τρέχοντα έργα ΤΝ σε ορισμένες χώρες της ΕΕ, συμπεριλαμβανομένης της επιθυμίας της Γερμανίας να εφαρμόσει αυτόματη αναγνώριση προσώπου σε 134 σιδηροδρομικούς σταθμούς και 14 αεροδρόμια. Η Γαλλία σχεδιάζει επίσης να θεσπίσει ένα νομικό πλαίσιο που θα επιτρέπει στα συστήματα βιντεοπαρακολούθησης την ενσωμάτωση τεχνολογιών αναγνώρισης προσώπου.

Το έγγραφο της Επιτροπής, το οποίο δίνει μια εικόνα των προτάσεων για μια ευρωπαϊκή προσέγγιση στην Τεχνητή Νοημοσύνη, υποστηρίζει ότι ένα μελλοντικό κανονιστικό πλαίσιο θα μπορούσε να περιλαμβάνει «απαγόρευση της χρήσης της τεχνολογίας αναγνώρισης προσώπου σε δημόσιους χώρους».

Το έγγραφο προσθέτει ότι η χρήση της τεχνολογίας αναγνώρισης προσώπου από ιδιωτικούς ή δημόσιους φορείς σε δημόσιους χώρους θα απαγορευόταν για ορισμένο χρονικό διάστημα (π.χ. 3-5 χρόνια) κατά τη διάρκεια της οποίας μια ακέραια μεθοδολογία για την αξιολόγηση των επιπτώσεων αυτής της τεχνολογίας και πιθανών μέτρων διαχείρισης κινδύνου μπορεί να εντοπιστεί και να αναπτυχθεί.

«Πέντε ρυθμιστικές επιλογές για την ΤΝ»

Γενικότερα, το σχέδιο λευκής βίβλου, της οποίας η ολοκληρωμένη έκδοση θα δημοσιευθεί από την Επιτροπή προς το τέλος Φεβρουαρίου, περιλαμβάνει πέντε ρυθμιστικές επιλογές για την τεχνητή νοημοσύνη σε όλο το μπλοκ.

Οι διάφοροι ρυθμιστικοί άξονες που εξετάζει η Επιτροπή στο έγγραφο είναι οι εξής:

  • Εθελοντική επισήμανση
  • Τομεακές απαιτήσεις για τη δημόσια διοίκηση και την αναγνώριση προσώπου
  • Υποχρεωτικές απαιτήσεις βάσει ανάλυσης κινδύνων για εφαρμογές υψηλού κινδύνου
  • Ασφάλεια και ευθύνη
  • Διακυβέρνηση

Ένα πλαίσιο εθελοντικής επισήμανσης θα μπορούσε να συνίσταται σε ένα νομικό εργαλείο με το οποίο οι προγραμματιστές θα μπορούσαν «να επιλέξουν να συμμορφωθούν, σε εθελοντική βάση, με απαιτήσεις για ηθική και αξιόπιστη τεχνητή νοημοσύνη.» Σε περίπτωση που θα διασφαλιστεί η συμμόρφωση σε αυτόν τον τομέα, μια «ετικέτα» ηθικής ή αξιόπιστης τεχνητής νοημοσύνης θα μπορούσε να παρέχεται, με δεσμευτικές προϋποθέσεις.

Η δεύτερη επιλογή επικεντρώνεται σε έναν συγκεκριμένο τομέα δημοσίου ενδιαφέροντος – τη χρήση τεχνητής νοημοσύνης από τις δημόσιες αρχές – καθώς και στη χρήση τεχνολογιών αναγνώρισης προσώπου γενικά. Στον πρώτο τομέα, το έγγραφο αναφέρει ότι η ΕΕ θα μπορούσε να υιοθετήσει μια προσέγγιση παρόμοια με τη στάση που υιοθέτησε ο Καναδάς στην οδηγία για την αυτοματοποιημένη λήψη αποφάσεων, η οποία καθορίζει ελάχιστα πρότυπα για τις κυβερνητικές υπηρεσίες που επιθυμούν να χρησιμοποιήσουν ένα αυτοματοποιημένο σύστημα αποφάσεων.

Όσον αφορά την αναγνώριση προσώπου, το έγγραφο της Επιτροπής επισημαίνει τις διατάξεις του Γενικού Κανονισμού για την Προστασία των Δεδομένων της ΕΕ, οι οποίες δίνουν στους πολίτες «το δικαίωμα να μην υπόκεινται σε απόφαση βασισμένη αποκλειστικά σε αυτοματοποιημένη επεξεργασία, συμπεριλαμβανομένου του profiling».

Στον τρίτο τομέα, τον οποίο η Επιτροπή προετοιμάζει επί του παρόντος να ρυθμίσει, τα νομικά δεσμευτικά μέσα θα εφαρμόζονται μόνο «στις εφαρμογές τεχνητής νοημοσύνης υψηλού κινδύνου». Το έγγραφο αναφέρει ότι «αυτή η προσέγγιση με βάση τον κίνδυνο θα επικεντρωθεί σε περιοχές όπου το κοινό κινδυνεύει ή που διακυβεύεται ένα σημαντικό νομικό συμφέρον».

Ορισμένοι τομείς που θα μπορούσαν να θεωρηθούν ως υψηλού κινδύνου περιλαμβάνουν την υγειονομική περίθαλψη, τις μεταφορές, την αστυνόμευση και τη δικαιοσύνη, διαπιστώνει το έγγραφο. Η Επιτροπή προσθέτει ότι για να θεωρηθεί μια εφαρμογή «υψηλού κινδύνου» θα πρέπει να πληροί ένα από τα δύο κριτήρια: να εμπίπτει στο πεδίο εφαρμογής ενός τομέα υψηλού κινδύνου ή να παρουσιάζει πιθανές νομικές επιπλοκές και να θέτει «κίνδυνο τραυματισμού , θανάτου ή σημαντικής υλικής ζημίας για το άτομο.»

Η 4η εναλλακτική καλύπτει τα ζητήματα ασφάλειας και ευθύνης που ενδέχεται να προκύψουν στο πλαίσιο της μελλοντικής ανάπτυξης της Τεχνητής Νοημοσύνης και προτείνει να γίνουν «στοχοθετημένες τροποποιήσεις» στη νομοθεσία της ΕΕ για την ασφάλεια και την ευθύνη, συμπεριλαμβανομένης της Οδηγίας για τη Γενική Ασφάλεια των Προϊόντων, την Οδηγία για τον Μηχανολογικό Εξοπλισμό και την Οδηγία περί Ευθύνης για τα Προϊόντα.

Οι κίνδυνοι που δεν καλύπτονται σήμερα από την υπάρχουσα νομοθεσία, όπως αναφέρεται στο έγγραφο, περιλαμβάνουν τους «κινδύνους από απειλές στον κυβερνοχώρο, κίνδυνο για την προσωπική ασφάλεια, την προστασία της ιδιωτικής ζωής και την προστασία προσωπικών δεδομένων», οι οποίες μπορούν να θεωρηθούν ως μέρος ενδεχόμενων μελλοντικών τροποποιήσεων.

Σε ό, τι αφορά την ευθύνη, «ενδέχεται να χρειαστούν προσαρμογές για να αποσαφηνιστεί η ευθύνη των δημιουργών Τεχνητής Νοημοσύνης και να διαχωριστούν από τις ευθύνες του παραγωγού των προϊόντων» και το πεδίο εφαρμογής της νομοθεσίας θα μπορούσε να τροποποιηθεί για να καθοριστεί εάν τα συστήματα τεχνητής νοημοσύνης θεωρούνται ως «προϊόντα».

Όσον αφορά την επιλογή 5, «Διακυβέρνηση», η Επιτροπή δηλώνει ότι είναι απαραίτητο ένα αποτελεσματικό σύστημα επιβολής, το οποίο απαιτεί ισχυρό σύστημα δημόσιας εποπτείας με τη συμμετοχή των εθνικών αρχών. Θα ήταν απαραίτητη η προώθηση της συνεργασίας μεταξύ των εθνικών αυτών αρχών, σημειώνει το έγγραφο.

Οι πιο πιθανές προσεγγίσεις που πρέπει να υιοθετηθούν επισήμως, αναφέρει το έγγραφο, είναι ένας συνδυασμός των επιλογών 3, 4 και 5.

«Η Επιτροπή μπορεί να εξετάσει τον συνδυασμό ενός οριζόντιου μέσου που καθορίζει τις απαιτήσεις διαφάνειας και λογοδοσίας και καλύπτει επίσης το πλαίσιο διακυβέρνησης που συμπληρώνεται από στοχοθετημένες τροποποιήσεις της υφιστάμενης νομοθεσίας της ΕΕ για την ασφάλεια και την ευθύνη», αναφέρεται στο έγγραφο.

Ιστορικό

Η αποκάλυψη του σχεδίου Λευκής Βίβλου της Επιτροπής ακολουθεί μια περίοδο δημόσιας συζήτησης σχετικά με τον τρόπο αντιμετώπισης των μελλοντικών προκλήσεων της Τεχνητής Νοημοσύνης.

Μια έκθεση που δημοσίευσε τον Ιούνιο η Ομάδα Υψηλού Επιπέδου της Επιτροπής για την ΤΝ πρότεινε ότι η ΕΕ θα πρέπει να εξετάσει την ανάγκη νέας ρύθμισης για «να εξασφαλίσει επαρκή προστασία από τις δυσμενείς επιπτώσεις», η οποία θα μπορούσε να περιλαμβάνει ζητήματα που προκύπτουν από τη βιομετρική αναγνώριση, τη χρήση θανατηφόρων αυτόνομων όπλων (lethal autonomous weapons systems- LAWS), τα συστήματα ΤΝ που βασίζονται στα προφίλ των παιδιών και ο αντίκτυπος της ΤΝ στα θεμελιώδη δικαιώματα.

Από την άποψη της αναγνώρισης προσώπου, οι φόβοι πέρυσι αυξήθηκαν όσον αφορά την εφαρμογή της τεχνολογίας στην Ευρώπη, με τη Σουηδική Αρχή Προστασίας Δεδομένων να επιβάλλει πρόστιμο  20.000 ευρώ σε δήμο για τη χρήση τεχνολογίας αναγνώρισης προσώπου για την παρακολούθηση της φοίτησης των μαθητών στο σχολείο, ενώ η γάλλος ρυθμιστής των δεδομένων, CNIL, δήλωσε ότι η τεχνολογία παραβιάζει τους κανόνες συγκατάθεσης του ΓΚΠΔ (GDPR).

[το ρεπορτάζ του Samuel Stolton δημοσιεύθηκε αρχικά στην EURACTIV σε επιμέλεια Zoran Radosavljevic και ακολούθως μετεφρασμένο από τον Θοδωρή Καραουλάνη στην ελληνική EURACTIV]