1. Μετάβαση στο περιεχόμενο
  2. Μετάβαση στο κύριο μενού
  3. Μετάβαση σε περισσότερους ιστοτόπους της DW

Νέο πλαίσιο για την τεχνητή νοημοσύνη σχεδιάζει η ΕΕ

12 Ιουνίου 2023

H EE σχεδιάζει ένα νέο κανονιστικό πλαίσιο για τις εφαρμογές τεχνητής νοημοσύνης. Πρώτο βήμα θα είναι η συζήτηση στο Ευρωπαϊκό Κοινοβούλιο για τη νέα νομοθεσία.

Το Ευρωπαϊκό Κοινοβούλιο στο Στρασβούργο
Το Ευρωπαϊκό Κοινοβούλιο συζητά επί του νομοσχεδίου για την τεχνητή νοημοσύνηΕικόνα: Daniel Kalker/picture alliance

Για πρώτη φορά η Ευρωπαϊκή Ένωση βρίσκεται σε διαδικασία ρύθμισης των εφαρμογών της «τεχνητής νοημοσύνης», δηλαδή των προγραμμάτων που έχουν δυνατότητες κατανόησης και αναπαραγωγής των ανθρώπινων γνωστικών λειτουργιών. Στις 14 Ιουνίου, το Ευρωπαϊκό Κοινοβούλιο πρόκειται να συζητήσει επί ενός σχετικού νομοσχεδίου. Ο Σαμ Άλτμαν, επικεφαλής της εταιρείας OpenAI της Καλιφόρνια, η οποία λάνσαρε το πολυσυζητημένο ChatGPT, είχε προειδοποιήσει κατά της υπερβολικής ρύθμισης σε πρόσφατη επίσκεψή του στη Γερμανία, όπου συναντήθηκε μάλιστα και με τον καγκελάριο Όλαφ Σολτς, κάνοντας λόγο ακόμη και ενδεχόμενη διακοπή της λειτουργίας του ChatGPT στην Ευρώπη. Ωστόσο, ο Άλτμαν απέσυρε τη συγκεκριμένη απειλή, δηλώνοντας πως το κανονιστικό πλαίσιο φαίνεται θετικό, αλλά «χρειαζόμαστε περισσότερη σαφήνεια».

Η OpenAI του Σαμ Άλτμαν ασκεί πιέσεις στην ΕΕ για το νομοθετικό πλαίσιοΕικόνα: Andrew Caballero-Reynolds/AFP

Απαραίτητη η σύμπνοια με τα ευρωπαϊκά πρότυπα

Ο Ρενέ Ρεπασί, μέλος του Ευρωπαϊκού Κοινοβουλίου, αντιμετωπίζει μάλλον ψύχραιμα την πίεση που ασκεί η OpenAI, θυγατρική της Microsoft. Εξάλλου, η ευρωπαϊκή αγορά είναι πολύ ελκυστική για τους παρόχους τεχνητής νοημοσύνης για να την αγνοήσουν. «Όποιος θέλει να πουλήσει την τεχνητή νοημοσύνη εδώ, οφείλει να ακολουθεί τα δικά μας πρότυπα», λέει ο Ρεπασί, ο οποίος ασχολείται με το αντικείμενο για λογαριασμό του Ευρωπαϊκού Σοσιαλιστικού Κόμματος.

Ο ευρωβουλευτής βρίσκεται σε επαφή και με τους συναδέλφους του στις Η.Π.Α., όπου επίσης επιδιώκεται η διαμόρφωση ενός κανονιστικού πλαισίου. «Θέλουμε να διαμορφώσουμε ουσιαστικές κατευθυντήριες γραμμές και όχι να ανταγωνιζόμαστε ο ένας τον άλλον», λέει. Οι αμερικανικές εταιρείες τεχνολογίας διαθέτουν πολλά κεφάλαια, τεράστιες ποσότητες δεδομένων και μια μοναδική υπεροχή, που θέλουν και να υπερασπιστούν.

Η πίεση της OpenAI δεν ανησυχεί τον Ρενέ ΡεπασίΕικόνα: Bernd Riegert/DW

Αυτό δεν σημαίνει, ωστόσο, ότι οι ευρωπαϊκοί κανονισμοί θα εμποδίζουν τις νεοσύστατες επιχειρήσεις στην Ε.Ε. να αναπτύξουν περαιτέρω την τεχνητή νοημοσύνη, όπως λέει ο Ρεπασί: «Το γεγονός ότι τόσοι πολλοί τεχνολογικοί κολοσσοί εδράζουν στις Η.Π.Α. οφείλεται περισσότερο στο ότι υπάρχουν αγορές όπου κυριαρχούν τα μονοπώλια, παρά με το πού ευνοείται περισσότερο η μεγαλύτερη καινοτομία».

Προειδοποιήσεις για την τεχνητή νοημοσύνη

Ένας από τους «πατέρες» της τεχνητής νοημοσύνης, ο πρώην υπάλληλος της Google Τζέφρι Χίντον, προειδοποίησε προσφάτως σε συνεντεύξεις του για τους κινδύνους που εγκυμονεί το δημιούργημά του. Η τεχνητή νοημοσύνη ενδέχεται σύντομα να είναι πιο έξυπνη από τους ανθρώπους που τη δημιούργησαν, ενώ οι αλλαγές στην αγορά εργασίας δεν μπορούν να προβλεφθούν ακόμη.

Ταυτοχρόνως, οι προγραμματιστές των συστημάτων και τα ανώτερα στελέχη της Microsoft ή της Google παραδέχονται επίσης ότι δεν γνωρίζουν πλέον πώς ακριβώς λειτουργούν οι εφαρμογές με τεχνητή νοημοσύνη. Σε ανοιχτή επιστολή τους ερευνητές και επιχειρηματίες, μεταξύ των οποίων και ο ιδιοκτήτης του Twitter Έλον Μασκ, πρότειναν να παύσει η ανάπτυξη της τεχνητής νοημοσύνης μέχρι το τέλος του έτους , ώστε να τεθούν κάποια όρια στην ανάπτυξή της.

Ο Τζέφρι Χίντον προειδοποιεί για τους κινδύνους που ενέχει η ανάπτυξη της τεχνητής νοημοσύνηςΕικόνα: Mark Blinch/REUTERS

Η Ε.Ε. αντιδρά με έναν νέο νόμο που συζητείται εδώ και δύο χρόνια. Κατ' αρχήν, προβλέπει τη διαίρεση των εφαρμογών τεχνητής νοημοσύνης σε διαφορετικές κατηγορίες κινδύνου. Τα συστήματα υψηλού κινδύνου που αναλύουν και προβλέπουν κοινωνικές συμπεριφορές θα πρέπει να απαγορευθούν. Οι εφαρμογές χαμηλού κινδύνου θα υπάγονται σε συγκεκριμένο κανονιστικό πλαίσιο. Οι απλές εφαρμογές- και σε αυτές θα περιλαμβάνονται πιθανώς γεννήτριες κειμένων, όπως το ChatGPT- δεν θα περιορίζονται σε μεγάλο βαθμό. Ωστόσο, όλες οι εφαρμογές τεχνητής νοημοσύνης θα πρέπει να φέρουν σχετική σήμανση.

Σε ισχύ το νομοθετικό πλαίσιο το 2025

Η Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη δεν αναμένεται να τεθεί σε ισχύ πριν από τις αρχές του 2025. Απαιτείται όχι μόνο η έγκριση του Ευρωπαϊκού Κοινοβουλίου, αλλά και των 27 κρατών-μελών της Ε.Ε. Όμως, όπως επισημαίνει ο ευρωβουλευτής Άξελ Βος, «η ανάπτυξη είναι στην πραγματικότητα τόσο γρήγορη, που πολλές εφαρμογές τεχνητής νοημοσύνης δεν θα ανταποκρίνονται πλέον στις ανάγκες της εποχής, όταν θα έχει τεθεί σε ισχύ ο νέος νόμος».

Ο Βος, μέλος του CDU, εργάζεται εδώ και χρόνια γύρω από την τεχνητή νοημοσύνη και είναι ένας από τους κύριους συντάκτες του πλαισίου της Ε.Ε. Ο Βος προειδοποιεί ότι οι άκαμπτες απαγορεύσεις δεν αποτελούν λύση: «Χρειαζόμαστε -για λόγους ανταγωνισμού και επειδή έχουμε ήδη μείνει πίσω- περισσότερη αισιοδοξία στην εντατική ενασχόληση με την τεχνητή νοημοσύνη. Αλλά η πλειοψηφία του Ευρωπαϊκού Κοινοβουλίου καθοδηγείται από φόβους και ανησυχίες και προσπαθεί να αποτρέψει τα πάντα».

Οι αρμόδιοι για την προστασία των προσωπικών δεδομένων στα κράτη-μέλη της Ε.Ε. ζητούν ανεξάρτητη εποπτεία των εφαρμογών τεχνητής νοημοσύνης, καθώς και μεγαλύτερη προσαρμογή στη νομοθεσία περί προστασίας δεδομένων.

Το νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη θα τεθεί σε ισχύ το 2025Εικόνα: Jaap Arriens/NurPhoto/picture alliance

Ο νόμος για την τεχνητή νοημοσύνη θα πρέπει να είναι ευέλικτος, σύμφωνα με τον βουλευτή του SPD Ρενέ Ρεπασί. Το ζήτημα του τι είναι υψηλού ή χαμηλού κινδύνου στην τεχνητή νοημοσύνη δεν θα πρέπει να ρυθμίζεται στο πραγματικό κείμενο του νόμου, αλλά στο παράρτημα, ώστε να μπορεί να αλλάζει γρήγορα και να προσαρμόζεται στις τεχνολογικές εξελίξεις.

Πιστοποιήση από ανεξάρτητους επιθεωρητές;

Οι εταιρείες που θέλουν να πωλούν επικίνδυνες εφαρμογές τεχνητής νοημοσύνης στην Ευρώπη θα πρέπει να πληρούν αυστηρές προϋποθέσεις, ενώ τα δεδομένα με τα οποία θα εκπαιδεύονται τα προγράμματα τεχνητής νοημοσύνης θα πρέπει να ελεγχθούν. Οι άνθρωποι, των οποίων τα δεδομένα αποτελούν αντικείμενο επεξεργασίας, θα πρέπει να ενημερώνονται αναφορικά με τον σκοπό για τον οποίο θα χρησιμοποιηθούν τα δεδομένα τους.

Η ιταλική αρχή προστασίας δεδομένων είχε απαγορεύσει για λίγο το ChatGPT τον Απρίλιο, λόγω ελλείψεων στην προστασία των δεδομένων, και το ενέκρινε εκ νέου μόνο αφ’ ότου η OpenAI προέβη σε ορισμένες αλλαγές. Στη Γερμανία, η Ομοσπονδιακή Υπηρεσία για την Ασφάλεια Πληροφοριών και το Ινστιτούτο Πληροφορικής Φραουνχοφερ εξετάζουν το ενδεχόμενο να εισαγάγουν ένα πιστοποιητικό για εφαρμογές τεχνητής νοημοσύνης, που θα εκδίδεται από ανεξάρτητους επιθεωρητές.

Επιμέλεια: Γιώργος Πασσάς

Μπερντ Ρίγκερτ Ανταποκριτής στις Βρυξέλλες. Tα θέματά του: πρόσωπα, ιστορίες και πολιτική στην Ευρωπαϊκή Ένωση.
Παράλειψη επόμενης ενότητας Κύριο θέμα της DW

Κύριο θέμα της DW

Παράλειψη επόμενης ενότητας Περισσότερα άρθρα από την DW

Περισσότερα άρθρα από την DW