Την Πέμπτη η Ευρωπαϊκή Ένωση δημοσιευμένο το πρώτο του σχέδιο Κώδικα Πρακτικής για μοντέλα γενικής χρήσης AI (GPAI).. Το έγγραφο, το οποίο δεν θα οριστικοποιηθεί μέχρι τον Μάιο, καθορίζει κατευθυντήριες γραμμές για τη διαχείριση των κινδύνων – και δίνει στις εταιρείες ένα σχέδιο για να συμμορφωθούν και να αποφύγουν τις βαριές κυρώσεις. Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη τέθηκε σε ισχύ την 1η Αυγούστου, αλλά άφησε περιθώρια να αποσαφηνιστούν οι ιδιαιτερότητες των κανονισμών GPAI. Αυτό το προσχέδιο (μέσω TechCrunch) είναι η πρώτη προσπάθεια να διευκρινιστεί τι αναμένεται από αυτά τα πιο προηγμένα μοντέλα, δίνοντας στους ενδιαφερόμενους χρόνο να υποβάλουν σχόλια και να τα βελτιώσουν πριν ξεκινήσουν.
Τα GPAI είναι εκείνα που έχουν εκπαιδευτεί με συνολική υπολογιστική ισχύ άνω των 10²5 FLOP. Οι εταιρείες που αναμένεται να εμπίπτουν στις κατευθυντήριες γραμμές της ΕΕ περιλαμβάνουν τις OpenAI, Google, Meta, Anthropic και Mistral. Αλλά αυτή η λίστα θα μπορούσε να μεγαλώσει.
Το έγγραφο απευθύνεται σε διάφορους βασικούς τομείς για τους κατασκευαστές GPAI: διαφάνεια, συμμόρφωση με δικαιώματα πνευματικής ιδιοκτησίας, αξιολόγηση κινδύνου και μετριασμό του τεχνικού κινδύνου/διακυβέρνησης. Αυτό το προσχέδιο των 36 σελίδων καλύπτει πολύ έδαφος (και πιθανότατα θα φουσκώσει πολύ περισσότερο πριν οριστικοποιηθεί), αλλά αρκετά σημεία ξεχωρίζουν.
Ο κώδικας δίνει έμφαση στη διαφάνεια στην ανάπτυξη της τεχνητής νοημοσύνης και απαιτεί από τις εταιρείες τεχνητής νοημοσύνης να παρέχουν πληροφορίες σχετικά με τους ανιχνευτές ιστού που χρησιμοποίησαν για να εκπαιδεύσουν τα μοντέλα τους – μια βασική ανησυχία για τους κατόχους πνευματικών δικαιωμάτων και τους δημιουργούς. Η ενότητα αξιολόγησης κινδύνου στοχεύει στην πρόληψη των αδικημάτων στον κυβερνοχώρο, των εκτεταμένων διακρίσεων και της απώλειας του ελέγχου της τεχνητής νοημοσύνης (η στιγμή «είναι απατεώνας» σε ένα εκατομμύριο κακές ταινίες επιστημονικής φαντασίας).
Οι κατασκευαστές τεχνητής νοημοσύνης αναμένεται να υιοθετήσουν ένα Πλαίσιο Ασφάλειας και Ασφάλειας (SSF) για να αναλύσουν τις πολιτικές διαχείρισης κινδύνου και να τις μετριάσουν ανάλογα με τους συστημικούς τους κινδύνους. Οι κανόνες καλύπτουν επίσης τεχνικούς τομείς όπως η προστασία δεδομένων μοντέλου, η παροχή ελέγχων πρόσβασης με ασφάλεια και η συνεχής επανεκτίμηση της αποτελεσματικότητάς τους. Τέλος, το τμήμα διακυβέρνησης επιδιώκει τη λογοδοσία εντός των ίδιων των εταιρειών, απαιτώντας συνεχή αξιολόγηση κινδύνου και προσαγωγή εξωτερικών εμπειρογνωμόνων όπου χρειάζεται.
Όπως και οι άλλοι κανονισμοί της ΕΕ που σχετίζονται με την τεχνολογία, οι εταιρείες που παραβιάζουν τον νόμο περί τεχνητής νοημοσύνης μπορούν να περιμένουν απότομες κυρώσεις. Μπορεί να τους επιβληθεί πρόστιμο έως 35 εκατ. ευρώ (επί του παρόντος 36,8 εκατ. δολάρια) ή έως και επτά τοις εκατό των παγκόσμιων ετήσιων κερδών τους, όποιο από τα δύο είναι υψηλότερο.
Οι ενδιαφερόμενοι καλούνται να υποβάλουν σχόλια μέσω της αποκλειστικής πλατφόρμας Futurium έως τις 28 Νοεμβρίου για να βοηθήσουν στη βελτίωση του επόμενου προσχέδιου. Οι κανόνες αναμένεται να οριστικοποιηθούν έως την 1η Μαΐου 2025.