Τρίτη 9 Μαΐου 2023

Fortune. Ο Χένρι Κίσινγκερ λέει ότι θέλει να επιστήσει την προσοχή στους κινδύνους της τεχνητής νοημοσύνης με τον ίδιο τρόπο που έκανε για τα πυρηνικά όπλα, αλλά προειδοποιεί ότι είναι ένα «εντελώς νέο πρόβλημα»


Ο Χένρι Κίσινγκερ λέει ότι θέλει να επιστήσει την προσοχή στους κινδύνους της τεχνητής νοημοσύνης με τον ίδιο τρόπο που έκανε για τα πυρηνικά όπλα, αλλά προειδοποιεί ότι είναι ένα «εντελώς νέο πρόβλημα»

ΤΟΥ TRISTAN BOVE
8 Μαΐου 2023 στις 23:38 GMT+3
Ο πρώην υπουργός Εξωτερικών και Σύμβουλος Εθνικής Ασφάλειας Χένρι Κίσινγκερ, φωτογραφία το 2018.
THOMAS PETER - POOL/GETTY IMAGES

Στα 99 του χρόνια, ένας ηλικιωμένος πολιτικός όπως ο Χένρι Κίσινγκερ θα μπορούσε να συγχωρεθεί που δεν ήταν ενήμερος για την τεχνητή νοημοσύνη. Ωστόσο, ο πρώην διπλωμάτης που υπηρέτησε υπό δύο προέδρους και διαδραμάτισε βασικό ρόλο στον καθορισμό της αμερικανικής εξωτερικής πολιτικής κατά τη διάρκεια του Ψυχρού Πολέμου, έχει γίνει συχνός γνωματεύων για τις τελευταίες εξελίξεις της τεχνητής νοημοσύνης και η εκστρατεία του Κίσινγκερ να αναγνωρίσει τους κινδύνους της τεχνολογίας μπορεί να είναι ένα από τα τελευταία κομμάτια του παζλ. την κληρονομιά του.

Η συζήτηση για την τεχνητή νοημοσύνη έχει φτάσει σε πυρετό τους τελευταίους μήνες, αφού το ντεμπούτο του ChatGPT του OpenAI τον Νοέμβριο ώθησε τη Microsoft , την Google και άλλες εταιρείες τεχνολογίας να ξεκινήσουν έναν αγώνα εξοπλισμών για την τεχνητή νοημοσύνη . Άνθρωποι και επιχειρήσεις χρησιμοποιούν τώρα την τεχνητή νοημοσύνη σε αριθμούς ρεκόρ , ενώ οι εταιρείες θα μπορούσαν να πλησιάσουν περισσότερο στο σπάσιμο του κώδικα στην ανθρώπινη τεχνητή νοημοσύνη . 

Αλλά ο Κίσινγκερ, ο πρώην υπουργός Εξωτερικών και Σύμβουλος Εθνικής Ασφάλειας που θα γίνει αιωνόβιος στις 27 Μαΐου, ήταν απασχολημένος με την τεχνητή νοημοσύνη χρόνια πριν τα έξυπνα chatbots εισέλθουν στο πολιτιστικό ζήλο. Τώρα ζητά από τις κυβερνήσεις να λογοδοτήσουν για τους κινδύνους της τεχνολογίας, παρόμοια με τον τρόπο που πέρασε χρόνια υπερασπιζόμενος το τέλος της διάδοσης των πυρηνικών όπλων .

«Η ταχύτητα με την οποία δρα η τεχνητή νοημοσύνη θα την κάνει προβληματική σε καταστάσεις κρίσης», είπε ο Κίσινγκερ σε συνέντευξή του στο CBS που μεταδόθηκε την Κυριακή. «Τώρα προσπαθώ να κάνω ό,τι έκανα σε σχέση με τα πυρηνικά όπλα, για να επιστήσω την προσοχή στη σημασία του αντίκτυπου αυτής της εξέλιξης».

Υπαρξιακούς κινδύνους του AI

Το ενδιαφέρον του Κίσινγκερ για τις συνέπειες της τεχνητής νοημοσύνης χρονολογείται από το 2016, όταν παρακολούθησε τη Διάσκεψη Bilderberg εκείνης της χρονιάς, ένα φόρουμ που πραγματοποιήθηκε από τη δεκαετία του 1950 για την ευθυγράμμιση των αμερικανικών και ευρωπαϊκών συμφερόντων. 

Παρακολούθησε το συνέδριο μετά από πρόσκληση του τότε εκτελεστικού προέδρου της Google, Έρικ Σμιντ, σύμφωνα με άρθρο του 2021 του Time . Οι δυο τους έγραψαν ένα βιβλίο, μαζί με τον επιστήμονα υπολογιστών Daniel Huttenlocher, το 2021 με τίτλο The Age of AI , το οποίο υποστήριζε ότι η τεχνητή νοημοσύνη βρισκόταν στον γκρεμό να πυροδοτήσει εκτεταμένες επαναστάσεις στην ανθρώπινη κοινωνία, ενώ αμφισβητούσε αν ήμασταν έτοιμοι για αυτό.

Αυτή η στιγμή μπορεί να έχει ήδη φτάσει και δεν είναι ακόμη σαφές εάν η κοινωνία είναι προετοιμασμένη. Ο Geoffrey Hinton, ένας πρώην υπάλληλος της Google που συχνά αναφέρεται ως «Νονός της τεχνητής νοημοσύνης», εξέδωσε πρόσφατα μια σειρά προειδοποιήσεων σχετικά με τους κινδύνους της τεχνητής νοημοσύνης αφού άφησε εν μέρει την Google για να μιλήσει ανοιχτά για το θέμα. 

Οι τρέχουσες δυνατότητες τεχνητής νοημοσύνης είναι «αρκετά τρομακτικές», είπε ο Hinton στο BBC την περασμένη εβδομάδα, και καθώς οι μηχανές γίνονται ολοένα και πιο ικανές σε μεγαλύτερο αριθμό εργασιών, οι ευκαιρίες για τους «κακούς ηθοποιούς» να τις χρησιμοποιήσουν για «κακά πράγματα» αυξάνονται επίσης Οι New York Times στις αρχές αυτού του μήνα. Σε άλλη συνέντευξη στο Reuters την περασμένη εβδομάδα, ο Hinton προειδοποίησε ότι ο υπαρξιακός κίνδυνος της τεχνητής νοημοσύνης θα μπορούσε ακόμη και να «καταλήξει να είναι πιο επείγων» από την κλιματική αλλαγή.

Περισσότεροι από 1.000 τεχνολόγοι, ιστορικοί και επιστήμονες υπολογιστών ζήτησαν μορατόριουμ για την ανάπτυξη προηγμένων συστημάτων τεχνητής νοημοσύνης σε ανοιχτή επιστολή τον Μάρτιο για να κατανοήσουν καλύτερα τις δυνατότητες και τους κινδύνους της τεχνολογίας, ειδικά καθώς οι εταιρείες εργάζονται σε τεχνητή νοημοσύνη που θα μπορούσε ενδεχομένως να ταιριάζει ή να ξεπεράσει την ανθρώπινη ευφυΐα . Άλλοι ειδικοί, συμπεριλαμβανομένου του Hinton , υποστήριξαν ότι μπορεί να είναι ένα αδύνατο πρόβλημα να λυθεί, καθώς οι ΗΠΑ και η Κίνα ανταγωνίζονται ήδη διεθνώς στο μέτωπο της τεχνητής νοημοσύνης.

Οι Kissinger, Schmidt και Huttenlocher προειδοποίησαν ότι οι ικανότητες της τεχνητής νοημοσύνης μπορούν «να επεκταθούν εκθετικά καθώς η τεχνολογία προχωρά» σε ένα άρθρο του Φεβρουαρίου για τη Wall Street Journal. Η αυξανόμενη πολυπλοκότητα της τεχνητής νοημοσύνης με κάθε νέα επανάληψη σημαίνει ότι ακόμη και οι δημιουργοί της δεν γνωρίζουν πλήρως τι μπορεί να κάνει, προειδοποίησαν οι συγγραφείς. «Ως αποτέλεσμα, το μέλλον μας τώρα περιέχει ένα εντελώς νέο στοιχείο μυστηρίου, κινδύνου και έκπληξης», έγραψαν.

Καλεί για ρύθμιση

Η κατάσταση με την τεχνητή νοημοσύνη έχει συγκριθεί με την κρίση των άγνωστων κινδύνων που περιέβαλλε την ανάπτυξη πυρηνικών όπλων κατά το δεύτερο μισό του 20ου αιώνα, η οποία απαιτούσε διεθνή συντονισμό για να περιοριστεί. Ο Διευθύνων Σύμβουλος της Berkshire Hathaway, Warren Buffett, δήλωσε κατά τη διάρκεια της συνεδρίασης των μετόχων της εταιρείας την περασμένη εβδομάδα ότι Η τεχνητή νοημοσύνη, αν και «καταπληκτική», θα μπορούσε να συγκριθεί με την ανάπτυξη της ατομικής βόμβας λόγω των πιθανών κινδύνων της και επειδή «δεν θα μπορέσουμε να την ανακαλέσουμε». 

Ο Hinton συνέκρινε επίσης την υπαρξιακή απειλή της τεχνητής νοημοσύνης με αυτή που θέτουν τα πυρηνικά όπλα σε συνέντευξή του στο CNN την περασμένη εβδομάδα, ως πιθανό τομέα όπου οι ΗΠΑ και η Κίνα θα μπορούσαν να συνεργαστούν για τη ρύθμιση της τεχνητής νοημοσύνης. 

«Αν γίνει ένας πυρηνικός πόλεμος, όλοι χάνουμε και είναι το ίδιο αν αυτά τα πράγματα κυριαρχήσουν», είπε, αν και σημείωσε στη συνέντευξή του στους New York Times ότι η κατάσταση με την τεχνητή νοημοσύνη είναι εντελώς διαφορετική, καθώς είναι πολύ πιο εύκολο για τις εταιρείες. και οι χώρες να αναπτύξουν την τεχνολογία κεκλεισμένων των θυρών παρά να δημιουργήσουν πυρηνικά όπλα.

Ο Μάικλ Όσμπορν, ερευνητής μηχανικής μάθησης στο Πανεπιστήμιο της Οξφόρδης, ζήτησε μια συμφωνία μη διάδοσης παρόμοια με αυτή που διέπει τα πυρηνικά όπλα για να χαλιναγωγηθεί η τεχνητή νοημοσύνη κατά τη διάρκεια μιας συνέντευξης στην Daily Telegraph τον Ιανουάριο. «​​Εάν μπορούσαμε να κατανοήσουμε ότι η προηγμένη τεχνητή νοημοσύνη είναι εξίσου συγκρίσιμος κίνδυνος με τα πυρηνικά όπλα, τότε ίσως θα μπορούσαμε να καταλήξουμε σε παρόμοια πλαίσια για τη διακυβέρνησή της», είπε.

Όμως, στη συνέντευξή του στο CBS , ο Κίσινγκερ αναγνώρισε ότι ένας αγώνας εξοπλισμών τεχνητής νοημοσύνης αντιπροσώπευε ένα εντελώς διαφορετικό παιχνίδι μπάλας από τον αγώνα για την ανάπτυξη πυρηνικών όπλων, δεδομένων των απέραντου αγνώστων.

«[Εγώ] θα είμαι διαφορετικός. Επειδή στους προηγούμενους αγώνες εξοπλισμών, θα μπορούσατε να αναπτύξετε εύλογες θεωρίες για το πώς θα μπορούσατε να επικρατήσετε. Είναι ένα εντελώς νέο πρόβλημα πνευματικά», είπε.

Εγγραφείτε στο Well Adjusted, το ενημερωτικό μας δελτίο γεμάτο απλές στρατηγικές για να εργάζεστε πιο έξυπνα και να ζείτε καλύτερα, από την ομάδα του Fortune Well. Εγγραφείτε σήμερα .

Διαβάστε περισσότερα

Τεχνητή νοημοσύνηΚρυπτονόμισμαMetaverseΚυβερνασφάλειαTech Forward

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου