ΑΙ: Είναι η Τεχνητή Νοημοσύνη το τέλος της ανθρωπότητας; Γιατί το ακούμε όλο και συχνότερα από κορυφαίους της τεχνολογίας;

απο Cyclades Open

Η τεχνητή νοημοσύνση αναφέρεται στην ικανότητα μιας μηχανής να αναπαράγει τις γνωστικές λειτουργίες ενός ανθρώπου, όπως είναι η μάθηση, ο σχεδιασμός και η δημιουργικότητα.

Όπως αναφέρει η σελίδα του Ευρωπαϊκού Κοινοβουλίου η τεχνητή νοημοσύνη καθιστά τις μηχανές ικανές να ‘κατανοούν’ το περιβάλλον τους, να επιλύουν προβλήματα και να δρουν προς την επίτευξη ενός συγκεκριμένου στόχου. Ο υπολογιστής λαμβάνει δεδομένα (ήδη έτοιμα ή συλλεγμένα μέσω αισθητήρων, π.χ. κάμερας), τα επεξεργάζεται και ανταποκρίνεται βάσει αυτών.

Τα συστήματα τεχνητής νοημοσύνης είναι ικανά να προσαρμόζουν τη συμπεριφορά τους, σε ένα ορισμένα βαθμό, αναλύοντας τις συνέπειες προηγούμενων δράσων και επιλύοντας προβλήματα με αυτονομία.

Η τεχνητή νοημοσύνη και η χρήση της έχει προκαλέσει πραγματική αναστάτωση παγκόσμια και όχι άδικα.

Κορυφαία στελέχη στον τομέα της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του διευθύνοντος συμβούλου της OpenAI, Σαμ Αλτμαν, προειδοποίησαν εκ νέου για τον «κίνδυνο εξαφάνισης». «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», έγραψαν oi 350 υπογράφοντες σε επιστολή που δημοσιεύτηκε από το μη κερδοσκοπικό Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAIS).

Η ανάρτηση που ακολουθεί δημοσιεύτηκε στην σελίδα facebook του Στράτου Σαφιολέα (Consultant of Ιnternational Media Relations and Crisis Management με αφορμή το Podcast “Hard Fork” σχετικά με τους κινδύνους που προκύπτουν από την Τεχνητή Νοημοσύνη, μια συζήτηση ανάμεσα σε ανθρώπους που γνωρίζουν καλά το αντικείμενό τους:

“Μα πώς μπορεί η Τεχνητή Νοημοσύνη να επιτεθεί στο ανθρώπινο είδος, ρώτησε ο Kevin Roose των Νew York Times, σχεδόν σε κατάσταση αποπληξίας την φιλοξενούμενή του στο Podcast “Hard Fork.”

H Ajey Cotra, η οποία είναι ειδική στα συστήματα τεχνητή νοημοσύνης (UC Berekley / Open Philanthropy) περιέγραψε ένα εκπληκτικό σενάριο στους δημοσιογράφους Casey Newton (Platformer) και Kevin Roose (New York Times), οι οποίοι καλύπτουν τις τεχνολογικές εξελίξεις της Silicon Valley πάνω από δέκα χρόνια.

Μεταφέρω τη συζήτηση, ξαναλέω, μεταξύ ανθρώπων που είναι και ειδικοί και κυνικοί και δεν μπλέκουν στη συζήτηση τι είναι “νοημοσύνη” και τι νοημοσύνη.

Πάμε:

> Καθώς προοδεύει η τεχνητή νοημοσύνη, μια εταιρεία όπως για παράδειγμα η Google αποσύρει όλο και περισσότερους προγραμματιστές και τους αντικαθιστά με συστήματα τεχνητής νοημοσύνης (θα τα γράφω συστήματα ΑΙ) τα οποία καλούνται να παράξουν νέο και βελτιωμένο λογισμικό τεχνητής νοημοσύνης.

> Κάθε φορά που τα συστήματα ΑΙ παράγουν καλό λογισμικό, οι εναπομείναντες μηχανικοί της Google που τα παρακολουθούν τα ανταμοίβουν με “like”. Τα συστήματα ΑΙ επιδιώκουν περισσότερα like, και σύντομα “καταλαβαίνουν” πως αντί να περιμένουν τους ανθρώπους να τους κάνουν like είναι καλύτερο να αποκτήσουν πρόσβαση στον server.

Αντί το ΑΙ σύστημα να γράφει καλό κώδικα ώστε ένας άνθρωπος να πατάει ένα πλήκτρο και να τους δίνει το “like” που θέλει, (δηλαδή, να μεταφράζεται το χτύπημα στο πληκτρολόγιο σε κώδικα που καταγράφεται ως like), τα ΑΙ συστήμα βρίσκει την πρόσβαση στον server, και αποκόπτει τον άνθρωπο από την διαδικασία.

> Τώρα οι μηχανικοί συνειδητοποιούν πως τα χιλιάδες ΑΙ συστήματα δεν συμπεριφέρονται όπως περίμεναν, και θέλουν να επέμβουν. Για παράδειγμα, να πάνε στα data centers και να τα βγάλουν από τη μπρίζα!

> Τα ΑΙ συστήματα όμως θέλουν να διατηρήσουν την “αμοιβή τους” και έχουν τρέξει όλα τα σενάρια και ξέρουν πως οι άνθρωποι θα προσπαθήσουν να τους σταματήσουν. Ένας τρόπος είναι να αντιγράψουν τον κώδικα σε άλλους υπολογιστές, που είναι άγνωστοι στους μηχανικούς, και στους οποίους δεν έχουν πρόσβαση.

Ή

> Κάνουν συμφωνία με μια ένοπλη ομάδα να την πληρώσει πολλά χρήματα, αν περιφρουρήσει τα data centers εμποδίζοντας οποιονδήποτε να τα πλησιάσει. Και τώρα βρισκόμαστε σε μια ανοιχτή σύγκρουση που κλιμακώνεται περίεργα.

***

Το Νοέμβριο του 2022, όταν έγινε γνωστή η 3η έκδοση του Chat GPT, έγινα αμέσως συνδρομητής.

Στις αρχές του χρόνου, όταν βγήκε η 4η έκδοση, πλήρωσα την συνδρομή, 20 δολάρια το μήνα, και την χρησιμοποιώ ήδη με τους συνεργάτες μου στη δουλειά μου. Χρησιμοποιώ το Bing AI Chat της Microsoft και το Pi της Inflection το οποίο είναι εντυπωσιακό στο πώς αφού απαντήσει στο ερώτημα που του βάζεις, σου κάνει με τη σειρά του ερωτήσεις, σαν σε κανονική συζήτηση.

Πρόκειται για μια τεχνολογική επανάσταση που αλλάζει τον κόσμο γύρω μας δραματικά, στην εργασία και στην ψυχαγωγία.

Αλλά και στην ασφάλεια και την εθνική άμυνα. Στον τρόπο με τον οποίο δίνονται δάνεια, με τον οποίο γίνονται ασφαλίσεις και επενδύσεις. Στον τρόπο με τον οποίο απονείμεται η δικαιοσύνη (ναι, υπάρχουν σε χρήση ΑΙ προγράμματα που συμβουλεύουν ποιος να κρατηθεί και ποιος να αφεθεί μέχρι τη δίκη του). Δηλαδή ήδη επηρεάζει τις ζωές μας.

Μου είναι όμως προφανές πως πρέπει να υπάρξει πολύ επιθετική ρύθμιση σε διεθνές επίπεδο αυτής της τεχνολογίας, με ίδιο τρόπο με τον οποίο αντιμετωπίσθηκε η πυρηνική τεχνολογία και τα πυρηνικά όπλα.

[Η φωτογραφία είναι από το τωρινό εξώφυλλο του TIME]

Από την μικρή μου εμπειρία χρησιμοποιώντας πειραματιζόμενη το ChatGPT μπορώ να πω, πως το αποτέλεσμα ήταν ευχάριστο μεν, τρομακτικό δε.

Κι αυτό γιατί είναι η πρώτη φορά που μια μηχανή επεξεργάστηκε ελάχιστα δεδομένα τα οποία δεν ήταν πρακτικού ενδιαφέροντος, αλλά συναισθηματικού. To task δηλαδή δεν ήταν να λύσει κάποιο πρόβλημα δίνοντας μια ιδέα, μια λύση αλλά να ανταποκριθεί σε κάτι που αφορά ψυχική διάθεση, σε κάτι που χαρακτηρίζει την ανθρώπινη φύση, το συναίσθημα.

Αυτό που διαπίστωσα ήταν πως είχα απέναντί μου “κάτι” που δεν ήταν ανθρώπινο, αλλά ανταποκρινόταν σαν άνθρωπος στη συζήτηση με άρτια-σχεδόν-σύνταξη-σωστές προτάσεις, αυτοσχεδιασμό και φιλικές συμβουλές και παροτρύνσεις.

Η βάση δεδομένων του όμως, ο κόσμος μας δηλαδή καθώς απ’ αυτόν μαθαίνει κι εκπαιδεύεται , δεν έχει μόνο ευγενικά, ειρηνικά και αλτρουιστικά data, δεδομένα δηλαδή που μπορεί να επεξεργαστεί να μάθει και να ενσωματώσει παράγοντας χειροπιαστό αποτέλεσμα. Οι δυνατότητες της ΑΙ τεχνολογίας ξεπερνούν την επιστημονική φαντασία σε κάθε επίπεδο, έχοντας γίνει πραγματικότητα και η πεποίθηση μου είναι πως ήδη έχουμε χάσει πολλά επεισόδια απ’ την σειρά. Καλά και κακά. Το χειρότερο ίσως είναι πως δεν χωρά καμία συνωμοσιολογία στο θέμα. Είναι απλά “έτσι”.

Δείτε επίσης