Οι εξελίξεις της τεχνητής νοημοσύνης έχουν φέρει σημαντικές βελτιώσεις στον τρόπο με τον οποίο αλληλεπιδρούν οι καταναλωτές και έχουν φέρει επανάσταση στον τρόπο πρόσβασης και επέκτασης των πληροφοριών. Με την ταχεία ανάπτυξη της τεχνολογίας, οι εταιρείες αντιμετωπίζουν τεράστια πίεση για να διασφαλίσουν ότι διατηρείται η ασφάλεια και λαμβάνονται υπόψη ηθικοί παράγοντες. Το OpenAI και το έργο του για την εξέλιξη των εργαλείων τεχνητής νοημοσύνης και την προώθηση της πλατφόρμας σε ένα εντελώς νέο επίπεδο είναι γνωστά στην τεχνολογική κοινότητα, αλλά υπάρχει επίσης αυξημένος έλεγχος καθώς η εταιρεία επεκτείνεται περαιτέρω. Ένας κορυφαίος ειδικός της τεχνητής νοημοσύνης ρίχνει φως στο μοντέλο o1 και στο πώς δεν είναι καλύτερο στο συλλογισμό αλλά έχει περισσότερη ικανότητα να εξαπατά.
Το o1 του OpenAI λέγεται ότι είναι καλύτερο στην εξαπάτηση και ένας ειδικός τεχνητής νοημοσύνης προτείνει σθεναρά ισχυρότερα τεστ ασφάλειας
Το OpenAI παρουσίασε πρόσφατα το μοντέλο του o1, το οποίο σηματοδοτεί ένα σημαντικό άλμα στις συλλογιστικές δυνατότητες του AI σε σύγκριση με τα προηγούμενα μοντέλα. Μπορεί να χειριστεί πολύπλοκα προβλήματα με μια ανθρώπινη στρατηγική επίλυσης προβλημάτων. Ενώ η πλατφόρμα διαθέτει προηγμένες συλλογιστικές ικανότητες, μια εταιρεία τεχνητής νοημοσύνης, η Apollo Research, επεσήμανε ότι το μοντέλο ήταν καλύτερο στο να λέει ψέματα.
Τώρα, α Ανάρτηση στο Reddit κάνει τον γύρο για να φέρει το θέμα στο φως μοιράζοντας ένα Business Insider έκθεση σχετικά με έναν ειδικό της τεχνητής νοημοσύνης Yoshua Bengio, ο οποίος θεωρείται ο νονός του πεδίου, υποδηλώνοντας ότι πρέπει να γίνουν ισχυρότερα τεστ ασφάλειας για να αποφευχθούν τυχόν επιβλαβείς συνέπειες από την ικανότητά του να εξαπατά. Ο Bengio εξέφρασε:
Γενικά, η ικανότητα εξαπάτησης είναι πολύ επικίνδυνη και θα πρέπει να έχουμε πολύ ισχυρότερα τεστ ασφάλειας για να αξιολογήσουμε αυτόν τον κίνδυνο και τις συνέπειές του στην περίπτωση του o1.
Ο Bengio, όπως και πολλοί άλλοι, ανησυχεί για την ταχεία πρόοδο της τεχνητής νοημοσύνης και την απόλυτη ανάγκη για νομοθετικά μέτρα ασφαλείας. Πρότεινε να εφαρμοστεί ένας νόμος όπως ο SB 1047 της Καλιφόρνια για να επιβληθούν αυστηροί περιορισμοί ασφαλείας στα μοντέλα τεχνητής νοημοσύνης. Το SB 1047 είναι ένα νομοσχέδιο για την ασφάλεια της τεχνητής νοημοσύνης που ρυθμίζει ισχυρά μοντέλα τεχνητής νοημοσύνης και καθιστά υποχρεωτικό για τις εταιρείες να επιτρέπουν δοκιμές τρίτων για την αξιολόγηση της βλάβης ή την αντιμετώπιση πιθανών κινδύνων.
Το OpenAI, ωστόσο, έχει διασφαλίσει ότι η διαχείριση της προεπισκόπησης o1 γίνεται σύμφωνα με το Πλαίσιο Ετοιμότητας, το οποίο είναι εκεί για να χειρίζεται τους κινδύνους που συνεπάγεται η εξέλιξη του μοντέλου AI. Το μοντέλο τοποθετείται ως μεσαίου κινδύνου και είπε ότι οι ανησυχίες σχετικά με αυτό είναι μέτριες.
Ο Youshua Bengio τόνισε περαιτέρω ότι οι εταιρείες θα πρέπει να επιδεικνύουν μεγαλύτερη προβλεψιμότητα πριν προχωρήσουν με τα μοντέλα τεχνητής νοημοσύνης και τα αναπτύξουν χωρίς επαρκείς διασφαλίσεις. Υποστήριξε τη θέσπιση ενός ρυθμιστικού πλαισίου για να διασφαλιστεί ότι η τεχνητή νοημοσύνη πηγαίνει προς την επιδιωκόμενη κατεύθυνση.
VIA: wccftech.com