Κλείσιμο μενού
  • Ροή Ειδήσεων
  • Απόψεις
  • Γεωστρατηγική
  • Ελλάδα
  • Κόσμος
  • Τεχνολογία
Τετάρτη, 15 Απριλίου 2026
ΠΡΩΤΟΣΕΛΙΔΑ
Facebook X (Twitter) Instagram Pinterest Tumblr YouTube
Sahiel.gr – Ειδήσεις, Αναλύσεις και Γεωστρατηγική Ενημέρωση
  • Ροή Ειδήσεων
  • Απόψεις
  • Γεωστρατηγική
  • Ελλάδα
  • Κόσμος
  • Τεχνολογία
Facebook X (Twitter) Instagram Pinterest Tumblr YouTube
Sahiel.gr – Ειδήσεις, Αναλύσεις και Γεωστρατηγική Ενημέρωση
Αρχική»Τεχνολογία»Προειδοποίηση από 80 επιστήμονες τεχνητής νοημοσύνης για την Ασφάλεια και της επιπτώσεις
Τεχνολογία

Προειδοποίηση από 80 επιστήμονες τεχνητής νοημοσύνης για την Ασφάλεια και της επιπτώσεις

02/06/2023Sahiel Newsroom7 Λεπτά Ανάγνωση

Την Τρίτη, 80 επιστήμονες τεχνητής νοημοσύνης και περισσότερες από 200 “άλλες σημαντικές προσωπικότητες” υπέγραψαν δήλωση στην οποία αναφέρεται ότι “ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος”.

Η προειδοποίηση μιας πρότασης από την ποικιλόμορφη ομάδα επιστημόνων, μηχανικών, στελεχών επιχειρήσεων, ακαδημαϊκών και άλλων ενδιαφερόμενων ατόμων δεν υπεισέρχεται σε λεπτομέρειες σχετικά με τις υπαρξιακές απειλές που θέτει η τεχνητή νοημοσύνη. Αντίθετα, επιδιώκει να “ανοίξει τη συζήτηση” και να “δημιουργήσει κοινή γνώση του αυξανόμενου αριθμού εμπειρογνωμόνων και δημόσιων προσώπων που λαμβάνουν επίσης σοβαρά υπόψη ορισμένους από τους πιο σοβαρούς κινδύνους της προηγμένης τεχνητής νοημοσύνης”, σύμφωνα με το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, έναν μη κερδοσκοπικό οργανισμό με έδρα τις ΗΠΑ, ο ιστότοπος του οποίου φιλοξενεί τη δήλωση.

Ο επικεφαλής υπογράφων Τζέφρι Χίντον, που συχνά αποκαλείται “νονός της τεχνητής νοημοσύνης”, κρούει τον κώδωνα του κινδύνου εδώ και εβδομάδες. Νωρίτερα αυτόν τον μήνα, ο 75χρονος ομότιμος καθηγητής της επιστήμης των υπολογιστών στο Πανεπιστήμιο του Τορόντο ανακοίνωσε ότι παραιτήθηκε από τη θέση του στη Google προκειμένου να μιλήσει πιο ελεύθερα για τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη.

Πριν παραιτηθεί από τη Google, ο Hinton δήλωσε στοCBS News τον Μάρτιο ότι οι πιθανές επιπτώσεις της ταχέως εξελισσόμενης τεχνολογίας είναι συγκρίσιμες με “τη βιομηχανική επανάσταση, ή τον ηλεκτρισμό, ή ίσως τον τροχό”.

Ερωτηθείς σχετικά με τις πιθανότητες η τεχνολογία να “εξαφανίσει την ανθρωπότητα”, ο Hinton προειδοποίησε ότι “δεν είναι αδιανόητο”.

Αυτό το τρομακτικό ενδεχόμενο δεν έγκειται απαραίτητα στα υπάρχοντα σήμερα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, αλλά μάλλον σε αυτό που αποκαλείται “τεχνητή γενική νοημοσύνη” (AGI), η οποία θα περιλαμβάνει υπολογιστές που αναπτύσσουν και ενεργούν με βάση τις δικές τους ιδέες.

“Μέχρι πρόσφατα, πίστευα ότι θα χρειαστούν 20 έως 50 χρόνια μέχρι να έχουμε τεχνητή νοημοσύνη γενικού σκοπού”, δήλωσε ο Hinton στο CBS News. “Τώρα πιστεύω ότι μπορεί να είναι 20 χρόνια ή και λιγότερο”.

Πιεζόμενος από το πρακτορείο αν θα μπορούσε να συμβεί νωρίτερα, ο Hinton παραδέχτηκε ότι δεν θα απέκλειε το ενδεχόμενο να φτάσει η ΑΓΙ μέσα σε πέντε χρόνια, μια σημαντική αλλαγή σε σχέση με μερικά χρόνια πριν, όταν “θα έλεγε, “Με τίποτα””.

“Πρέπει να σκεφτούμε πολύ για το πώς θα το ελέγξουμε αυτό”, δήλωσε ο Hinton. Ερωτηθείς αν αυτό είναι εφικτό, ο Hinton είπε: “Δεν ξέρουμε, δεν έχουμε φτάσει ακόμα εκεί, αλλά μπορούμε να προσπαθήσουμε”.

Ο πρωτοπόρος της τεχνητής νοημοσύνης δεν είναι καθόλου μόνος του. Σύμφωνα με την έκθεση 2023 AI Index Report, μια ετήσια αξιολόγηση της ταχέως αναπτυσσόμενης βιομηχανίας που δημοσιεύθηκε τον περασμένο μήνα από το Ινστιτούτο Stanford Institute for Human-Centered Artificial Intelligence, το 57% των επιστημόνων πληροφορικής που συμμετείχαν στην έρευνα δήλωσαν ότι “η πρόσφατη πρόοδος μας οδηγεί προς την AGI” και το 58% συμφώνησε ότι “η AGI αποτελεί σημαντικό ζήτημα”.

Αν και τα ευρήματά του δημοσιεύθηκαν στα μέσα Απριλίου, η έρευνα του Stanford σε 327 ειδικούς στην επεξεργασία φυσικής γλώσσας -ένας κλάδος της επιστήμης των υπολογιστών που είναι απαραίτητος για την ανάπτυξη των chatbots- διεξήχθη τον περασμένο Μάιο και Ιούνιο, μήνες πριν το ChatGPT του OpenAI εμφανιστεί στη σκηνή τον Νοέμβριο.

Ο διευθύνων σύμβουλος της OpenAI Sam Altman, ο οποίος υπέγραψε τη δήλωση που κοινοποιήθηκε την Τρίτη από το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, έγραψε σε μια ανάρτηση στο ιστολόγιο τον Φεβρουάριο: “Οι κίνδυνοι θα μπορούσαν να είναι εξαιρετικοί. Μια λανθασμένα ευθυγραμμισμένη υπερ-ευφυής AGI θα μπορούσε να προκαλέσει σοβαρή ζημιά στον κόσμο”.

Τον επόμενο μήνα, ωστόσο, ο Altman αρνήθηκε να υπογράψει μια ανοιχτή επιστολή με την οποία ζητούσε ένα μορατόριουμ μισού έτους για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πέρα από το επίπεδο του τελευταίου chatbot της OpenAI, του GPT-4.

Η επιστολή, που δημοσιεύθηκε τον Μάρτιο, αναφέρει ότι “ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι”.

Ο διευθύνων σύμβουλος της Tesla και του Twitter Elon Musk ήταν μεταξύ εκείνων που ζήτησαν παύση πριν από δύο μήνες, αλλά “αναπτύσσει σχέδια για να ξεκινήσει μια νέα start-up τεχνητής νοημοσύνης για να ανταγωνιστεί” την OpenAI, σύμφωνα με τους Financial Times, θέτοντας το ερώτημα αν η δηλωμένη ανησυχία του για τους “βαθύτατους κινδύνους της τεχνολογίας για την κοινωνία και την ανθρωπότητα” είναι ειλικρινής ή έκφραση ιδιοτέλειας.

Το γεγονός ότι ο Altman και αρκετοί άλλοι υποστηρικτές της Τεχνητής Νοημοσύνης υπέγραψαν τη δήλωση της Τρίτης εγείρει την πιθανότητα ότι οι γνώστες με δισεκατομμύρια δολάρια σε κίνδυνο προσπαθούν να επιδείξουν την επίγνωσή τους για τους κινδύνους που εγκυμονούν τα προϊόντα τους σε μια προσπάθεια να πείσουν τους αξιωματούχους για την ικανότητά τους να αυτορυθμίζονται.

Οι απαιτήσεις από το εξωτερικό της βιομηχανίας για ισχυρή κυβερνητική ρύθμιση της τεχνητής νοημοσύνης αυξάνονται. Αν και οι πιο επικίνδυνες μορφές ΑΓΙ μπορεί να απέχουν ακόμη χρόνια, υπάρχουν ήδη αυξανόμενες ενδείξεις ότι τα υπάρχοντα εργαλεία ΤΝ επιδεινώνουν την εξάπλωση της παραπληροφόρησης, από τα chatbots που λένε ψέματα και τις εφαρμογές ανταλλαγής προσώπων που δημιουργούν ψεύτικα βίντεο μέχρι τις κλωνοποιημένες φωνές που διαπράττουν απάτες. Η τρέχουσα, μη δοκιμασμένη τεχνητή νοημοσύνη βλάπτει τους ανθρώπους με άλλους τρόπους, μεταξύ άλλων όταν αυτοματοποιημένες τεχνολογίες που αναπτύσσονται από ασφαλιστές Medicare Advantage αποφασίζουν μονομερώς να τερματίσουν τις πληρωμές, με αποτέλεσμα την πρόωρη διακοπή της κάλυψης για ευάλωτους ηλικιωμένους.

Οι επικριτές έχουν προειδοποιήσει ότι ελλείψει ταχείας παρέμβασης από τους φορείς χάραξης πολιτικής, η ανεξέλεγκτη τεχνητή νοημοσύνη θα μπορούσε να βλάψει επιπλέον ασθενείς υγειονομικής περίθαλψης, να υπονομεύσει τη δημοσιογραφία που βασίζεται σε γεγονότα, να επιταχύνει την καταστροφή της δημοκρατίας και να οδηγήσει σε έναν ακούσιο πυρηνικό πόλεμο. Άλλες κοινές ανησυχίες περιλαμβάνουν εκτεταμένες απολύσεις εργαζομένων και επιδείνωση της ανισότητας, καθώς και μαζική αύξηση της ρύπανσης από τον άνθρακα.

Μια έκθεση που δημοσιεύθηκε τον περασμένο μήνα από την Public Citizen υποστηρίζει ότι “μέχρι να υπάρξουν ουσιαστικές κυβερνητικές εγγυήσεις για την προστασία του κοινού από τις βλάβες της γεννητικής τεχνητής νοημοσύνης, χρειαζόμαστε μια παύση”.

“Οι επιχειρήσεις αναπτύσσουν δυνητικά επικίνδυνα εργαλεία τεχνητής νοημοσύνης ταχύτερα από ό,τι μπορούν να κατανοηθούν ή να μετριαστούν οι βλάβες τους”, προειδοποίησε σε ανακοίνωσή της η προοδευτική ομάδα υπεράσπισης.

“Η ιστορία δεν προσφέρει κανέναν λόγο να πιστεύουμε ότι οι εταιρείες μπορούν να αυτορρυθμιστούν για να απομακρύνουν τους γνωστούς κινδύνους -ιδιαίτερα από τη στιγμή που πολλοί από αυτούς τους κινδύνους είναι τόσο μέρος της γενεσιουργού τεχνητής νοημοσύνης όσο και της εταιρικής απληστίας”, συνέχισε το παρατηρητήριο. “Οι επιχειρήσεις που σπεύδουν να εισαγάγουν αυτές τις νέες τεχνολογίες παίζουν με τις ζωές και τα μέσα διαβίωσης των ανθρώπων, και αναμφισβήτητα με τα ίδια τα θεμέλια μιας ελεύθερης κοινωνίας και ενός βιώσιμου κόσμου”.

Νωρίτερα αυτό το μήνα, ο πρόεδρος της Public Citizen, Robert Weissman, χαιρέτισε το νέο σχέδιο της κυβέρνησης Biden για την “προώθηση της υπεύθυνης αμερικανικής καινοτομίας στην τεχνητή νοημοσύνη και την προστασία των δικαιωμάτων και της ασφάλειας των ανθρώπων”, αλλά τόνισε επίσης την ανάγκη για “πιο επιθετικά μέτρα” για την “αντιμετώπιση των απειλών της ανεξέλεγκτης εταιρικής τεχνητής νοημοσύνης”.

Απηχώντας την Public Citizen, μια διεθνής ομάδα γιατρών προειδοποίησε πριν από τρεις εβδομάδες στο επιστημονικό περιοδικό BMJ Open Health ότι η τεχνητή νοημοσύνη “θα μπορούσε να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα” και απαίτησε μορατόριουμ στην ανάπτυξη της εν λόγω τεχνολογίας εν αναμονή ισχυρής κυβερνητικής εποπτείας.

Η τεχνητή νοημοσύνη “θέτει μια σειρά από απειλές για την ανθρώπινη υγεία και ευημερία”, έγραψαν οι γιατροί και οι σχετικοί εμπειρογνώμονες. “Με την εκθετική ανάπτυξη της έρευνας και της ανάπτυξης της τεχνητής νοημοσύνης, το παράθυρο ευκαιρίας για την αποφυγή σοβαρών και δυνητικά υπαρξιακών βλαβών κλείνει”.

Ο Kenny Stancil είναι συγγραφέας του Common Dreams.

Ακολουθήστε το Sahiel.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.

επιστήμονες τεχνητής νοημοσύνης
Ακολουθήστε στο Instagram Ακολουθήστε στο YouTube
Share. Facebook Twitter Pinterest Tumblr
Sahiel Newsroom
  • Facebook
  • X (Twitter)
  • Pinterest
  • Instagram
  • Tumblr

Το Sahiel.gr είναι ανεξάρτητη ψηφιακή πύλη ενημέρωσης και ανάλυσης, με έμφαση στη γεωπολιτική, τη διεθνή ασφάλεια, τα εθνικά ζητήματα και τις παγκόσμιες εξελίξεις που επηρεάζουν άμεσα τον ελληνικό χώρο.Στόχος μας δεν είναι η απλή αναπαραγωγή ειδήσεων, αλλά η ερμηνεία των γεγονότων, η παροχή πλαισίου και η ανάδειξη των πραγματικών συσχετισμών ισχύος πίσω από την επικαιρότητα.

.

ΔΕΙΤΕ ΕΠΙΣΗΣ →

21/03/2026από Sahiel Newsroom

Silicon Valley και Τεχνητή Νοημοσύνη: Όταν η σάτιρα γίνεται προφητεία για το μέλλον της κοινωνίας

18/03/2026από Sahiel Newsroom

BRICS 2026: Η Ινδία στο τιμόνι της νέας ψηφιακής γεωπολιτικής τάξης

16/03/2026από Sahiel Newsroom

Τεχνητή Νοημοσύνη και Ρομποτική: Η νέα τεχνολογική επανάσταση που αλλάζει τον κόσμο

21/02/2026από Sahiel Newsroom

Η Άνοδος της Τεχνολογίας στην Κίνα: Από την Τεχνητή Νοημοσύνη έως την Παγκόσμια Καινοτομία

25/01/2026από Sahiel Newsroom

Από την αλχημεία στην πυρηνική φυσική: Πώς ο μόλυβδος μετατράπηκε σε χρυσό στο CERN

08/01/2026από Sahiel Newsroom

Ευρωπαϊκή Επιτροπή – X: Εντολή διατήρησης εγγράφων για το Grok έως το 2026 και αυστηρό μήνυμα για το παράνομο περιεχόμενο

07/01/2026από Sahiel Newsroom

Η Strive αμφισβητεί την MSCI: Μάχη για το Bitcoin στα παγκόσμια χρηματιστηριακά benchmarks

23/12/2025από Sahiel Newsroom

Νεκρός σε φλεγόμενο αυτοκίνητο ο Vince Zampella: Σοκ στη βιομηχανία των video games

17/12/2025από Sahiel Newsroom

Tesla Autopilot: Η Καλιφόρνια επιβάλλει κυρώσεις για παραπλανητική διαφήμιση της «Πλήρους Αυτοοδήγησης»

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ
  • Η Σαουδική Αραβία πιέζει τις ΗΠΑ για αποκλιμάκωση – Ο φόβος κλιμάκωσης από το Ιράν και η απειλή στο Μπαμπ αλ-Μαντάμπ
  • Στενά του Ορμούζ: Αμερικανικός Αποκλεισμός Πυροδοτεί Παγκόσμιο Συναγερμό – Η Σκληρή Αντίδραση της Κίνας
  • Η ομάδα του sahiel.gr σας εύχεται Χρόνια Πολλά και Καλή Ανάσταση!
  • Μεγάλη Πέμπτη: Το βαθύτερο νόημα της Θυσίας και της Ταπείνωσης στην Ορθοδοξία
  • Τουρκία – Θράκη: Η νέα στρατηγική πίεσης στην Ελλάδα και το «σιωπηλό μέτωπο» της Μεσογείου
  • Ακραίες απειλές Ακάρ για Κύπρο: «Θα είναι το τελευταίο σας Πάσχα» – Νέα κλιμάκωση από την Άγκυρα
  • Ιράν – Ισραήλ – ΗΠΑ: Ο πόλεμος που δεν έχει ξεκινήσει ακόμη – αλλά έχει ήδη αρχίσει
Sahiel.gr – Ειδήσεις, Αναλύσεις και Γεωστρατηγική Ενημέρωση
  • Ταυτότητα
  • Επικοινωνία
  • Όροι Χρήσης
  • Cookie Policy
  • Πολιτική Απορρήτου

© 2013 - 2026: Sahiel.gr . Με επιφύλαξη παντός δικαιώματος.

Η συνεργασία με το Sahiel.gr είναι εθελοντική και νοείται ως μη αμειβόμενη... Τα δημοσιευμένα άρθρα διατίθενται ελεύθερα, με την υποχρέωση αναφοράς του συγγραφέα και της πηγής: Sahiel.gr ... Οι φωτογραφίες προέρχονται, σε μεγάλο βαθμό, από το Διαδίκτυο και αξιολογούνται ως υλικό δημόσιου τομέα. Σε περίπτωση που οι δημιουργοί ή τα απεικονιζόμενα πρόσωπα αντιτίθενται στη χρήση τους, το συντακτικό προσωπικό αναλαμβάνει την άμεση απομάκρυνσή τους κατόπιν σχετικού αιτήματος στη διεύθυνση ηλεκτρονικού ταχυδρομείου [email: info@sahiel.gr].

Πληκτρολογήστε τα παραπάνω και πατήστε Enter για αναζήτηση... Η πατήστε Esc για ακύρωση.