Πηγή Εικόνας: ΑΠΕ-ΜΠΕ

Οι ευρωβουλευτές τάχθηκαν χθες υπέρ πιο αυστηρών κανόνων για την τεχνητή νοημοσύνη (AI) οι οποίοι περιλαμβάνουν απαγόρευση στη χρήση της τεχνολογίας στη βιομετρική επιτήρηση και την υποχρέωση συστημάτων γενετικής AI όπως το ChatGPT να αποκαλύπτουν περιεχόμενο που έχει δημιουργηθεί με χρήση AI.

Όπως αναφέρει το ΑΠΕ-ΜΠΕ, οι ευρωβουλευτές συμφώνησαν για τις τροπολογίες που πρέπει να γίνουν στο νομοσχέδιο που πρότεινε η Ευρωπαϊκή Επιτροπή, το οποίο έχει σκοπό τη δημιουργία παγκόσμιων προτύπων για την τεχνολογία που χρησιμοποιείται παντού, από τα αυτοματοποιημένα εργοστάσια μέχρι τις αυτοματοποιημένες εφαρμογές και τα αυτοκίνητα χωρίς οδηγό.

Η ταχεία υιοθέτηση του ChatGPT της εταιρίας OpenAI με την υποστήριξη της Microsoft, και άλλων αυτοματοποιημένων εφαρμογών έχει οδηγήσει κορυφαίους επιστήμονες στην τεχνητή νοημοσύνη και στελέχη εταιριών περιλαμβανομένου του Ίλον Μακ και του διευθύνοντος συμβούλου της OpenAI Σαμ Όλτμαν να μιλήσουν για ενδεχόμενους κινδύνους στην κοινωνία.

«Ενώ οι Big Tech [οι κυρίαρχες εταιρίες στον κλάδο της τεχνολογίας πληροφοριών] κρούουν οι ίδιες τον κώδωνα του κινδύνου για τις δημιουργίες τους, η Ευρώπη προχώρησε μπροστά και πρότεινε μια χειροπιαστή απάντηση στους κινδύνους που αρχίζει να θέτει η AI», δήλωσε ο Μπράντο Μπενιφέι, από τους εισηγητές του Ευρωπαϊκού Κοινοβουλίου.

Μεταξύ άλλων αλλαγών, οι ευρωβουλευτές θέλουν όποια εταιρία χρησιμοποιεί εργαλεία γενετικής τεχνητής νοημοσύνης να αποκαλύπτει υλικό με κατοχυρωμένα δικαιώματα πνευματικής ιδιοκτησίας το οποίο χρησιμοποιήθηκε για την εκπαίδευση των συστημάτων της και από τις εταιρίες που δουλεύουν πάνω σε «εφαρμογή υψηλού κινδύνου» να κάνουν αξιολόγηση αντίκτυπου στα βασικά δικαιώματα και να αποτιμήσουν τον αντίκτυπο στο περιβάλλον.

Η Microsoft, που έχει ζητήσει να επιβληθούν κανόνες στην AI, χαιρέτισε τη συμφωνία των βουλευτών.

«Πιστεύουμε πως η AI απαιτεί νομοθετικά προστατευτικά κιγκλιδώματα, προσπάθειες ευθυγράμμισης σε διεθνές επίπεδο και σημαντικές εθελοντικές ενέργειες από εταιρίες που αναπτύσσουν και χρησιμοποιούν AI», δήλωσε εκπρόσωπος της Microsoft.

Ωστόσο η Computer and Communications Industry Association ανέφερε πως οι τροπολογίες για υψηλού κινδύνου AI είναι πιθανόν να φορτώσουν τους Ευρωπαίους κατασκευαστές τεχνητής νοημοσύνης με «υπερβολικούς ρυθμιστικούς κανόνες» και να επιβραδύνουν την καινοτομία.

«Η ΑΙ εγείρει πολλά ερωτήματα — κοινωνικά, ηθικά, οικονομικά. Αλλά δεν είναι τώρα η ώρα να πατήσουμε οποιοδήποτε ‘κουμπί pause’. Αντίθετα, το θέμα είναι να δράσουμε γρήγορα και να αναλάβουμε την ευθύνη», δήλωσε ο Επίτροπος Βιομηχανίας της ΕΕ Τιερί Μπρετόν.

Η Επιτροπή ανακοίνωσε το σχέδιό της για την κανονιστική ρύθμιση της τεχνητής νοημοσύνης πριν από δύο χρόνια με σκοπό τη δημιουργία παγκόσμιων προτύπων για μια τεχνολογία κλειδί για όλες σχεδόν τις βιομηχανίες και τις επιχειρήσεις και στην προσπάθεια να προφθάσει τις προπορευόμενες στην τεχνητή νοημοσύνη Ηνωμένες Πολιτείες και Κίνα.

Οι ευρωβουλευτές θα πρέπει τώρα να συζητήσουν τις λεπτομέρειες με τις χώρες μέλη της Ευρωπαϊκής Ένωσης προτού το προσχέδιο κανόνων γίνει νόμος.

Το πρώτο σχέδιο κανονιστικής ρύθμισης για την Τ.Ν. στον κόσμο προχωρά στο επόμενο στάδιο

Σύμφωνα με την χθεσινή επίσημη ανακοίνωσή του, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τη διαπραγματευτική του θέση σχετικά με την νέα νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη με 499 ψήφους υπέρ, 28 κατά και 93 αποχές. Θα ξεκινήσει τώρα συνομιλίες με το Συμβούλιο, με σκοπό να καταλήξουν σε συμφωνία για την τελική μορφή που θα λάβει η νομοθεσία. Οι κανόνες θα διασφαλίζουν ότι η τεχνολογία της τεχνητής νοημοσύνης θα αναπτύσσεται και θα χρησιμοποιείται στην Ευρώπη με απόλυτο σεβασμό προς τα δικαιώματα και τις αξίες της ΕΕ, όπως η ανθρώπινη εποπτεία και η ασφάλεια, ο σεβασμός της ιδιωτικής ζωής, η διαφάνεια, η απαγόρευση των διακρίσεων και η μέριμνα για τα κοινωνικά και περιβαλλοντικά θέματα.

Απαγόρευση πρακτικών

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής:

  • Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
  • Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
  • Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
  • Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
  • Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
  • Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Τεχνητή νοημοσύνη υψηλού κινδύνου

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.

Υποχρεώσεις για τις γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά. 

Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων « , ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Στήριξη της καινοτομίας και προστασία των δικαιωμάτων των πολιτών

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα. Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Τέλος, οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν επίσης τον ρόλο που θα έχει το Γραφείο τεχνητής νοημοσύνης της ΕΕ, το οποίο θα παρακολουθεί την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.

Δηλώσεις

Μετά την ψηφοφορία, ο συνεισηγητής Brando Benifei (Σοσιαλιστές, Ιταλία) δήλωσε: «Τα βλέμματα όλου του κόσμου είναι στραμμένα πάνω μας σήμερα. Όσο οι τεχνολογικοί κολοσσοί κρούουν τον κώδωνα του κινδύνου για τα ίδια τα δημιουργήματά τους, η Ευρώπη προχωρά προτείνοντας συγκεκριμένους κανόνες για τους κινδύνους που αρχίζει να αντιπροσωπεύει η τεχνητή νοημοσύνη. Θέλουμε οι θετικές δυνατότητες της τεχνολογίας αυτής για τη δημιουργία και την παραγωγικότητα να τιθασευτούν, ενώ ταυτόχρονα παλεύουμε για την προστασία της θέσης μας στον κόσμο και την αντιμετώπιση κινδύνων για τις δημοκρατίες και την ελευθερία μας, στις διαπραγματεύσεις μας με το Συμβούλιο».

Ο συνεισηγητής Dragos Tudorache (Renew, Ρουμανία) δήλωσε: «Η νομοθετική πράξη για την τεχνητή νοημοσύνη θα ορίσει τη βάση της παγκόσμιας συζήτησης για την ανάπτυξη και τη διακυβέρνηση της τεχνητής νοημοσύνης, διασφαλίζοντας ότι η τεχνολογία αυτή, η οποία είναι έτοιμη να αλλάξει ριζικά τις κοινωνίες μας μέσω των τεράστιων οφελών που μπορεί να προσφέρει, θα αναπτυχθεί και θα χρησιμοποιηθεί σύμφωνα με τις ευρωπαϊκές αξίες της δημοκρατίας, των θεμελιωδών δικαιωμάτων και του κράτους δικαίου».

Επόμενα βήματα

Οι ευρωβουλευτές θα ξεκινούσαν χθες τις διαπραγματεύσεις με το Συμβούλιο σχετικά με την τελική μορφή του κειμένου της νομοθεσίας.