Τεχνητή νοημοσύνη: Ο δημιουργός του ChatGPT προειδοποιεί για απειλή “αφανισμού” της ανθρωπότητας

απο Cyclades Open

Επικεφαλής επιχειρήσεων και ειδικοί, μεταξύ των οποίων ο Σαμ Άλτμαν, δημιουργός του ChatGPT, προειδοποίησαν σήμερα σε δήλωση που ανέβηκε στο διαδίκτυο για τις απειλές «αφανισμού» της ανθρωπότητας που δημιουργεί η Τεχνητή Νοημοσύνη.

Ο αγώνας κατά των κινδύνων που συνδέονται με την ΤΝ πρέπει να είναι «παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους στην κλίμακα της κοινωνίας, όπως οι πανδημίες και οι πυρηνικοί πόλεμοι», γράφουν οι υπογράφοντες στον ιστότοπο του Center for AI Safety, μιας μη κερδοσκοπικής οργάνωσης με έδρα τις Ηνωμένες Πολιτείες.

Ο Τζέφρι Χίντον, που θεωρείται ένας από τους ιδρυτές της ΤΝ και ο οποίος υπογράφει επίσης τη διακήρυξη αυτή, προειδοποίησε ήδη για τους κινδύνους αποχωρώντας στις αρχές Μαΐου από τη θέση εργασίας του στον κολοσσό Google.

Η πρόοδος στον τομέα της ΤΝ προκαλεί «μεγάλους κινδύνους για την κοινωνία και την ανθρωπότητα», είχε εκτιμήσει τότε στους New York Times, όπως αναφέρει το news247.gr

Τον Μάρτιο, ο δισεκατομμυριούχος Έλον Μασκ -ένας από τους ιδρυτές της OpenAI ο οποίος στη συνέχεια αποχώρησε από το διοικητικό συμβούλιο- και εκατοντάδες ειδικοί σε όλο τον κόσμο είχαν ζητήσει να γίνει μια διακοπή έξι μηνών στην έρευνα για την ισχυρή ΤΝ, επικαλούμενοι «μεγάλους κινδύνους για την ανθρωπότητα».

Ένδειξη της ταχύτατης ανάπτυξης μιας όλο και πιο «γενικής» τεχνητής νοημοσύνης, που διαθέτει ανθρώπινες γνωστικές ικανότητες και άρα μπορεί να προκαλέσει ανατροπές σε πολλά επαγγέλματα, ήταν το λανσάρισμα από την OpenAI του GP-4, μιας νέας εκδοχής του ChatGPT, που παρουσιάστηκε ευρέως στο κοινό στα τέλη του 2022.

Ο Αμερικανός Σαμ Άλτμαν πολλαπλασιάζει τακτικά τις προειδοποιήσεις του, φοβούμενος πως η ΤΝ μπορεί να προκαλέσει «σοβαρή ζημιά στον κόσμο», χειραγωγώντας εκλογές ή προκαλώντας ανατροπές την αγορά εργασίας. Την περασμένη εβδομάδα στο Παρίσι, συζήτησε με τον πρόεδρο Εμανουέλ Μακρόν πώς μπορεί να εξευρεθεί «η σωστή ισορροπία ανάμεσα στην προστασία από (αυτή την τεχνολογία) και τον θετικό αντίκτυπό» της.

Η ΑΙ θα μας εξοντώσει βλέποντας τη συμπεριφορά μας στο Διαδίκτυο

Πριν από λίγες εβδομάδες o 75χρονος Τζέφρι Χίντον πρωτοπόρος στην τεχνολογία τεχνητής νοημοσύνης που αποκαλείται στη βιομηχανία της τεχνολογίας ως ο «νονός της τεχνητής νοημοσύνης» παραιτήθηκε από την θέση του στην Google δηλώνοντας φοβισμένος πλέον από την εξέλιξη της τεχνολογίας στην οποία συμμετέχει και ο ίδιος εδώ και δεκαετίας.

Ήρθε η σειρά του Μο Γκαουντάτ πρώην επικεφαλή του τμήματος ανάπτυξης και έρευνας τεχνολογιών της Google, του καλυπτόμενου από πέπλο μυστικότητας εργαστηρίου R&D-X του κολοσσού των διαδικτυακών υπηρεσιών. Ο Γκαουντάτ δηλώνει ότι θεωρούσε μέχρι σήμερα «παιδιά» του όλα τα εργαλεία και προγράμματα τεχνητής νοημοσύνης που ανέπτυσσε το τμήμα του αλλά τώρα έχει αρχίσει να αμφιβάλει σοβαρά για αυτή την… πατρότητα.

Μιλώντας σε ένα podcast δήλωσε πώς εύχεται να μην είχε ξεκινήσει καν αυτή την ερευνητική προσπάθεια και ότι πρέπει να υπάρξει πλέον συλλογική προσπάθεια για να εμποδιστεί η δημιουργία ενός δυστοπικού περιβάλλοντος από την τεχνητή νοημοσύνη.

Ο Γκαουντάτ λέει ότι το μεγάλο πρόβλημα είναι ότι τα προγράμματα τεχνητής νοημοσύνης όπως αυτά της μηχανικής μάθησης εκπαιδεύονται να μαθαίνουν τα πάντα μέσα από το χαοτικό αλλά και κατά βάση τοξικό στις απόψεις που διαχέονται εκεί κυβερνοχώρο.

Όπως λέει ένα πρόγραμμα τεχνητής νοημοσύνης που θα εξελίσσεται βλέποντας το τι γράφουν οι χρήστες στο Διαδίκτυο και το γίνεται στα social media θα θεωρήσει (δικαίως) τους ανθρώπους ως «αποβράσματα», ως οντότητες που δεν πρέπει να υπάρχουν και το πρόγραμμα θα προσπαθήσει να μας βγάλει από την μέση δίνοντας εντολή σε αυτόνομα στρατιωτικά μέσα (π.χ drones) να εξαπολύσουν επιθέσεις εναντίον μας, όπως αναφέρει η naftemporiki.gr

Ίσως είναι η πρώτη φορά στην ιστορία της ανθρωπότητας που δια μέσου της τεχνολογίας και της ΤΝ η επιστημονική φαντασία δεν είναι και τόσο “φαντασία” αλλά μια δυστοπική πραγματικότητα, που ποικιλοτρόπως απειλεί την ίδια την ύπαρξη του ανθρώπου: με ή χωρίς την συμμετοχή του.

Δείτε επίσης