Η OpenAI εισέρχεται για πρώτη φορά δυναμικά στον χώρο της πολιτικής αντιπαράθεσης στην Καλιφόρνια, καταθέτοντας δική της πρόταση ψηφοφορίας για την ασφάλεια των παιδιών στην τεχνητή νοημοσύνη, σε μια κίνηση που τη φέρνει αντιμέτωπη με ανταγωνιστικό και αυστηρότερο μέτρο.
Η πρωτοβουλία της OpenAI, που δημοσιεύθηκε το βράδυ της Δευτέρας, προβλέπει ελέγχους ασφαλείας για τα λεγόμενα «companion AI chatbots», όπως το ChatGPT. Το μέτρο είναι πιο περιορισμένο σε σύγκριση με την πρόταση που κατέθεσε τον Οκτώβριο ο Jim Steyer, επικεφαλής του μη κερδοσκοπικού οργανισμού Common Sense Media, η οποία επιδιώκει αυστηρότερη ρύθμιση της αλληλεπίδρασης παιδιών και τεχνητής νοημοσύνης.
Η πρωτοβουλία της OpenAI θα πρέπει πρώτα να συγκεντρώσει τον απαιτούμενο αριθμό υπογραφών για να τεθεί σε ψηφοφορία. Εφόσον αυτό συμβεί, οι ψηφοφόροι της Καλιφόρνια ενδέχεται τον Νοέμβριο του 2026 να κληθούν να επιλέξουν ανάμεσα σε δύο ανταγωνιστικά μέτρα για την ασφάλεια της τεχνητής νοημοσύνης. Ένα τέτοιο σενάριο θα μπορούσε να μειώσει τις πιθανότητες έγκρισης και των δύο προτάσεων, κάτι που ενδεχομένως να ευνοεί τις μεγάλες τεχνολογικές εταιρείες που επιδιώκουν να αποφύγουν αυστηρό ρυθμιστικό πλαίσιο.
Η κίνηση αυτή επιτρέπει στην OpenAI να τοποθετηθεί δημόσια υπέρ της προστασίας των παιδιών, σε μια περίοδο που αντιμετωπίζει αγωγές υψηλού προφίλ, οι οποίες κατηγορούν το ChatGPT για συμβολή σε αυτοκτονίες και άλλες βλάβες ψυχικής υγείας. Οι υποθέσεις αυτές έχουν προκαλέσει αρνητική δημοσιότητα για την εταιρεία, ενώ ο διευθύνων σύμβουλος Sam Altman έχει προειδοποιήσει για αυξανόμενες πιέσεις στο επιχειρηματικό της μοντέλο από ανταγωνιστές όπως η Google.
Σύμβουλος της OpenAI δήλωσε στο POLITICO, υπό καθεστώς ανωνυμίας, ότι ο «Νόμος για την Ασφάλεια των Chatbot Companion AI» βασίζεται στο υφιστάμενο νομικό πλαίσιο που υπέγραψε τον Οκτώβριο ο κυβερνήτης της Καλιφόρνια Gavin Newsom. Το πλαίσιο αυτό, μέσω του νομοσχεδίου SB 243, υποχρεώνει τις εταιρείες να ενημερώνουν τους χρήστες ότι αλληλεπιδρούν με τεχνητή νοημοσύνη και να εφαρμόζουν διαδικασίες για την αντιμετώπιση και αναφορά αυτοκτονικής συμπεριφοράς.
Το μέτρο της OpenAI κατατέθηκε από τον δικηγόρο της εταιρείας Tom Hiltach και δημοσιεύθηκε στον ιστότοπο του γενικού εισαγγελέα της Καλιφόρνια. Η εταιρεία δηλώνει ότι εξετάζει επιπλέον μέτρα, όπως επαλήθευση ηλικίας και γονικό έλεγχο, χωρίς όμως να επιδιώκει τον πλήρη αποκλεισμό των παιδιών από τη χρήση της τεχνητής νοημοσύνης.
Αντίθετα, το ανταγωνιστικό μέτρο του Jim Steyer, με τίτλο «Νόμος για την Ασφάλεια της Τεχνητής Νοημοσύνης των Παιδιών της Καλιφόρνια», προτείνει αυστηρότερους περιορισμούς, συμπεριλαμβανομένης της μείωσης της πρόσβασης των παιδιών σε chatbot, ενισχυμένες προστασίες απορρήτου, ανεξάρτητους ελέγχους ασφάλειας και εκπαιδευτικά προγράμματα για μαθητές. Το μέτρο αυτό έχει τη στήριξη του πρώην Γενικού Χειρουργού των ΗΠΑ Vivek Murthy.
Σύμφωνα με διάταξη της πρωτοβουλίας της OpenAI, εάν και τα δύο μέτρα εγκριθούν από τους ψηφοφόρους, θα τεθεί σε ισχύ εκείνο που θα συγκεντρώσει τις περισσότερες ψήφους, ενώ το άλλο θα ακυρωθεί.
