Μο Γκόνταντ για τους κινδύνους που φέρνει η ΑΙ: «Καλύτερα να μην κάνετε παιδιά»! – Το σενάριο «Doomsday» «Δεν έχει υπάρξει ποτέ στην ιστορία της ανθρωπότητας τόσο τέλεια καταιγίδα»
1 year, 4 months ago
6

Ο Μο Γκόνταντ, ειδικός στην τεχνητή νοημοσύνη (AI) και πρώην επικεφαλής επιχειρήσεων στο Google X, εκφράζοντας την ανησυχία του για την ταχεία άνοδο της τεχνητής νοημοσύνης προτρέπει τους ανθρώπους να μην κάνουν παιδιά, καθώς είναι πολύ πιθανό το σενάριο της «AI Doomsday»!

«Ειλικρινά οι κίνδυνοι είναι τόσο ισχυροί, που εξετάζοντας όλες τις άλλες απειλές για την ανθρωπότητα, νομίζω πως οι άνθρωποι θα πρέπει να αποφύγουν να κάνουν παιδιά εάν ακόμη δεν έχουν γίνει γονιοί», δήλωσε μιλώντας στον Steven Bartlett και στο podcast «το ημερολόγιο ενός CEO».

Όπως υπογραμμίζει το euronews, δεν είναι η πρώτη φορά που στελέχη της βιομηχανίας της τεχνολογίας εκδίδουν μια σαφή προειδοποίηση για τους μεγάλους κινδύνους της τεχνητής νοημοσύνης.

Ισχυρά πρόσωπα της τεχνολογίας, όπως ο Έλον Μασκ και ο συνιδρυτής της Aplle, Steve Wozniak, αλλά και πολλοί άλλοι επιχειρηματίες και ειδικοί του χώρου υπέγραψαν πρόσφατα μια ανοιχτή επιστολή ζητώντας να «παγώσουν» οι καινοτομίες για λίγο καιρό, ώστε η βιομηχανία αλλά και οι ίδιοι οι χρήστες να αποκτήσουν χρόνο για να επεξεργαστούν τις τελευταίες εξελίξεις.

 «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», ανέφερε σε ανακοίνωσή του το Κέντρο για την Ασφάλεια της Τεχνητής Νοσημοσύνης.

Τις εν λόγω ανησυχίες ενστερνίστηκαν με ανοιχτή επιστολή και εκατοντάδες ηγέτες του κλάδου. Ο ίδιος ο Σαμ Άλτμαν, ο διευθύνων σύμβουλος της Open AI, της εταιρείας που δημιούργησε το ChatGPT φέρνοντας επανάσταση στο χώρο της τεχνητής νοημοσύνης, έχει προειδοποιήσει για «υπαρξιακό κίνδυνο», τονίζοντας πως «ένας από τους μεγαλύτερους φόβους μου, είναι μήπως προκαλέσουμε σημαντικές ζημιές στην κοινωνία. Αν αυτή η τεχνολογία βαδίσει στον λάθος δρόμο, μπορεί να πάει αρκετά μακριά». 

«Δεν έχει υπάρξει ποτέ στην ιστορία της ανθρωπότητας τόσο τέλεια καταιγίδα», τονίζει ο Μο Γκόνταντ.

«Οικονομία, γεωπολιτική, υπερθέρμανση του πλανήτη, κλιματική αλλαγή και τώρα η ιδέα της τεχνητής νοημοσύνης. Αυτή είναι μια τέλεια καταιγίδα, η απόλυτη αβεβαιότητα… Πότε ξανά δεν ήταν πιο έντονη. Αν αγαπούσατε πραγματικά τα παιδιά σας, θα θέλατε πραγματικά να τα εκθέσετε σε όλα αυτά;». Και αυτή η «τέλεια καταιγίδα» ενισχύεται από τον ανταγωνισμό των εταιρειών τεχνολογίας, που έχουν επιδοθεί σε μια κούρσα για την ηγεμονία στη νέα τεχνολογική εποχή.

«Έχω περάσει την καριέρα μου γοητευμένος από τον ρόλο που παίζει η τεχνολογία και τώρα η μεγαλύτερη πρόκληση που έχει αντιμετωπίσει ποτέ η ανθρωπότητα είναι μπροστά μας», είπε και πρόσθεσε:

«Η τεχνητή νοημοσύνη είναι το αποκορύφωμα της τεχνολογικής προόδου και πιστεύω ότι θα είναι άνευ προηγουμένου στον καθορισμό του τρόπου με τον οποίο διαμορφώνεται ο κόσμος». «Η πολυπλοκότητα της ψηφιακής νοημοσύνης είναι τέτοια που έχει γίνει αυτόνομη. Είναι ζωτικής σημασίας να μείνουμε συντονισμένοι στο πώς θα πρέπει να γίνεται αυτό, διαφορετικά κινδυνεύουμε να μείνουμε πίσω», κατέληξε.

Η Τζέσικα Νιούμαν, διευθύντρια της Πρωτοβουλίας Ασφάλειας Τεχνητής Νοημοσύνης του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϋ, μιλώντας στον Guardian, υπογράμμισε πως «η ανησυχία δεν προκύπτει από μια τεχνητή νοημοσύνη που θα αποκτήσει κάποιου είδους κακόβουλη επιθυμία».

Ο κίνδυνος προέρχεται από κάτι πολύ πιο απλό: Από τον τρόπο που οι άνθρωποι θα αξιοποιήσουν την τεχνητή νοημοσύνη. Είτε γιατί επιθυμούν να προκαλέσουν κάτι κακό, είτε γιατί θα ενσωματώσουν σε υπέρμετρο βαθμό συστήματα τεχνητής νοημοσύνης – ακόμη και ανακριβή με εγγενείς αδυναμίες – σε όλο και περισσότερους τομείς της κοινωνίας.

Εν ολίγοις, η ακραία χρήση της τεχνητής νοημοσύνης έχει την ικανότητα να αποσταθεροποιεί κοινωνίες χωρίς να πάρει τα όπλα.

Για παράδειγμα με τη μορφή της παραπληροφόρησης, διαβρώνεται η κοινή κατανόηση της αλήθειας και της εγκυρότητας των πληροφοριών. Μάλιστα η παραπληροφόρηση – είτε ως ανακρίβεια, είτε ως κακόβουλη διάδοση με σκοπό την παραπλάνηση – θα μπορούσε να διαιωνίζεται, καθώς τα τρέχοντα μοντέλα τεχνητής νοημοσύνης θα δημιουργούν διαρκώς ελαττωματικά σύνολα δεδομένων από τα οποία θα γίνεται η εκμάθηση των μελλοντικών μοντέλων.

Μεγάλα γλωσσικά μοντέλα όπως το ChatGPT είναι επιρρεπή σε ένα φαινόμενο που ονομάζεται «παραισθήσεις», στο οποίο επαναλαμβάνονται κατασκευασμένες ή ψευδείς πληροφορίες.

Υπάρχουν άνθρωποι που λένε ότι οι κίνδυνοι της τεχνητής νοημοσύνης υπερεκτιμώνται, αλλά στον κόσμο των πληροφοριών έχει εκπληκτικό αντίκτυπο, επισημαίνουν ειδικοί, τονίζοντας πως το ερώτημα που τίθεται είναι εάν μπορούμε να καταλάβουμε πραγματικά τι είναι αλήθεια και τι όχι και πως επαληθεύουμε αυτό που βλέπουμε στο διαδίκτυο.

 pronews.gr