AI Act: Η ΕΕ θέτει τους κανόνες εφαρμογής της τεχνητής νοημοσύνης
1 min readΜε όλες αυτές τις ραγδαίες εξελίξεις γύρω από την τεχνητή νοημοσύνη, η Ευρωπαϊκή Ένωση (ΕΕ) κατέληξε σε προκαταρκτική συμφωνία η οποία οριοθετεί και κατά κάποιον τρόπο ή βάζει σε ένα πλαίσιο καλύτερα τη νέα μορφή με την ονομασία γενετική ή δημιουργική τεχνητή νοημοσύνη (Generative AI).
Σύμφωνα λοιπόν με την Washington Post, καθώς ο κόσμος προσπαθεί να αντιμετωπίσει τους κινδύνους που επιφέρει η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης, οι αξιωματούχοι της ΕΕ κατέληξαν σε συμφωνία την Παρασκευή με την ονομασία AI Act.
Ο Τιερί Μπρετόν, επικεφαλής του όλου εγχειρήματος δημοσίευσε έγγραφο σχετικά με τη δημιουργική τεχνητή νοημοσύνη. Αν και το νομοσχέδιο πρέπει ακόμη να εγκριθεί επίσημα από τα κράτη μέλη και τα κοινοβούλια των κρατών-μελών της, η ΕΕ κάνει ένα σημαντικό βήμα όπου βάσει του νομοσχεδίου θα ρυθμίζεται η ανάπτυξη και η διάδοση της μηχανικής μάθησης και των μοντέλων τεχνητής νοημοσύνης, όπως επίσης η χρήση της AI στην εκπαίδευση, στον εργασιακό τομές, στην υγεία και σε άλλους τομείς.
Σχετικά ανέφερε:
“Η ΕΕ γίνεται η πρώτη ήπειρος που θέτει σαφείς κανόνες για τη χρήση της τεχνητής νοημοσύνης. Το #AIAct είναι κάτι πολύ περισσότερο από ένα εγχειρίδιο κανόνων – είναι μία αρχή για τις νεοσύστατες επιχειρήσεις και τους ερευνητές της ΕΕ που θα ηγηθούν της παγκόσμιας κούρσας της τεχνητής νοημοσύνης.”
Ρύθμιση της τεχνητής νοημοσύνης στην ΕΕ
Η ΕΕ οριοθετεί την τα επίπεδα ανάπτυξης της τεχνητής νοημοσύνης και τα χωρίζει σε τρεις κατηγορίες.
1. Unacceptable risk
Τα συστήματα τεχνητής νοημοσύνης “Unacceptable risk” κίνδυνο είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορεύονται. Περιλαμβάνουν:
- Γνωστική συμπεριφορική χειραγώγηση ανθρώπων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια με φωνητική ενεργοποίηση που ενθαρρύνουν επικίνδυνες συμπεριφορές στα παιδιά.
- Κοινωνική βαθμολόγηση: ταξινόμηση ανθρώπων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση ή τα προσωπικά χαρακτηριστικά
- Συστήματα βιομετρικής ταυτοποίησης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου
2. High Risk
Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες:
- 1. Συστήματα ΤΝ που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει τα παιχνίδια, την αεροπορία, τα αυτοκίνητα, τις ιατρικές συσκευές και τους ανελκυστήρες.
- 2. Συστήματα ΤΝ που εμπίπτουν σε οκτώ συγκεκριμένους τομείς, τα οποία θα πρέπει να καταχωρίζονται σε μια βάση δεδομένων της ΕΕ:
- Βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων
- Διαχείριση και λειτουργία κρίσιμων υποδομών
- Εκπαίδευση και επαγγελματική κατάρτιση
- Απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
- Πρόσβαση σε και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών
- Επιβολή του νόμου
- Διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων
- Βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.
Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογούνται πριν από τη διάθεσή τους στην αγορά, καθώς και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Η δημιουργική τεχνητή νοημοσύνη, όπως to ChatGPT, θα πρέπει να συμμορφώνεται με τις απαιτήσεις
3. Limited Risk
Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με τις ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να τις χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την ΤΝ. Αυτό περιλαμβάνει συστήματα ΤΝ που παράγουν ή επεξεργάζονται περιεχόμενο εικόνας, ήχου ή βίντεο, για παράδειγμα deepfakes.
Τη στιγμή που μιλάμε , τα chatbots όπως το ChatGPT, ο Bard και ο Copilot ανήκουν στην κατηγορία “περιορισμένου κινδύνου”.
Η Ευρωπαϊκή Επιτροπή αναφέρει σχετικά ότι η τεχνητή νοημοσύνη δεν πρέπει να αποτελεί αυτοσκοπό, θα πρέπει να είναι ένα εργαλείο που εξυπηρετεί τον άνθρωπο, με απώτερο στόχο να τον ωφελήσει και ότι οι όλοι οι κανόνες που θεσπίζονται θα πρέπει να είναι “ανθρωποκεντρικοί” και να διασφαλίζουν ότι η τεχνολογία χρησιμοποιείται με “ασφαλή και νόμιμο τρόπο”.