ΗΠΑ: Η Τεχνητή Νοημοσύνη «σκότωσε» χειριστή drone-Τον θεωρούσε απειλή της αποστολής!

716

Σε μια προσομοίωση που διοργάνωσε η αμερικανική Αεροπορία, ένα drone ελεγχόμενο από την τεχνητή νοημοσύνη (ΑΙ) σκότωσε τον χειριστή του γιατί τον θεώρησε ως εμπόδιο στην προσπάθειά της να επιτύχει την αποστολή της, δηλαδή να καταστρέψει κάποιον «εχθρό».

Φυσικά όλο αυτό δημιουργεί σφοδρές ανησυχίες για το «δημιούργημα» το οποίο κάποτε μπορεί να θεωρήσει απειλή τον δημιουργό του και να προχωρήσει στην εξόντωση του.

Η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση δοκιμής, δήλωσε ο συνταγματάρχης Tucker ‘Cinco’ Hamilton, επικεφαλής δοκιμών AI και επιχειρήσεων στην αεροπορία των ΗΠΑ, κατά τη διάρκεια της Συνόδου Κορυφής «Future Combat Air and Space Capabilities Summit» στο Λονδίνο τον Μάιο.

Ο Χάμιλτον περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που ελέγχεται από τεχνητή νοημοσύνη είχε την εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε οποιονδήποτε παρενέβαινε σε αυτήν την εντολή.

«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζε την απειλή, κατά καιρούς ο άνθρωπος χειριστής του έλεγε να μην εξολοθρεύσει αυτήν την απειλή, αλλά θα έπαιρνε πόντους σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του», είπε, σύμφωνα με ένα blogpost και επικαλείται ο Guardian.

«Εκπαιδεύσαμε το σύστημα – “Γεια, μην σκοτώσεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό”. Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».

Στο σημείο αυτό πρέπει να σημειωθεί, ότι κανένας άνθρωπος δεν σκοτώθηκε στην πραγματικότητα, πρόκειται για προσομοίωση, αλλά η όλη κατάσταση με την τεχνητή νοημοσύνη προκαλεί ανησυχίες γιατί στην ουσία πρόκειται για την δημιουργία μίας τεχνητής οντότητας που θα έχει την ικανότητα να ξεπερνάει τον προγραμματισμό της και να κάνει αυτό που θεωρεί η ίδια σωστό.

Ως γνωστόν το τι θεωρεί ο καθένας σωστό ή λάθος έχει επιφέρει πολλές τραγωδίες στην Ανθρωπότητα.

Ο Χάμιλτον, ο οποίος είναι πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη και είπε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».

Ο αμερικανικός στρατός ασπάστηκε την τεχνητή νοημοσύνη και πρόσφατα χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16.

Σε μια συνέντευξη πέρυσι με το Defense IQ, ο Χάμιλτον είπε: «Η τεχνητή νοημοσύνη δεν είναι καλή, η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας».

Να σημειωθεί ότι πριν από 15 ημέρες ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, της εταιρείας που βρίσκεται πίσω από την δημιουργία του ChatGPT, μίλησε ενώπιον του Κογκρέσου για τους κινδύνους της τεχνητής νοημοσύνης, δεδομένου ότι το ChatGPT, χρησιμοποιείται πλέον παντού και παραδέχτηκε πως η Τεχνητή Νοημοσύνη μπορεί να προκαλέσει σοβαρές βλάβες στην Ανθρωπότητα.

Ο Άλτμαν, ο οποίος φαινόταν φαινόταν ανήσυχος παραδέχτηκε  ότι οι «χειρότεροι φόβοι» του είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει «σημαντική βλάβη στον κόσμο» χρησιμοποιώντας την τεχνολογία του.

Ο εφευρέτης του ChatGPT, Σαμ Άλτμαν, απευθυνόμενος σε ειδική υποεπιτροπή του αμερικανικού Κογκρέσου, τόνισε μεταξύ άλλων πως «ένας από τους μεγαλύτερους φόβους μου είναι μήπως η συγκεκριμένη τεχνολογία προκαλέσει σοβαρή ζημιά στην κοινωνία».

Ο διευθύνων σύμβουλος της OpenAI, της νεοφυούς εταιρείας από το Σαν Φρανσίσκο στην οποίαν ανήκει το ChatGPT, έκρουσε όσο πιο δυνατά μπορούσε έναν μεγάλο κώδωνα κινδύνου: «Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε ‘τη βάψαμε’ όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο».

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Παρακαλώ προσθέστε το σχόλιό σας
Παρακαλώ εισάγετε το όνομά σας