06.05.2024

Αθηναϊκά Νέα

Νέα από την Ελλάδα

Drone εξοπλισμένο με AI αποφάσισε να σκοτώσει τον χειριστή του

«Το drone είχε το καθήκον να εντοπίζει και να καταστρέφει ανεξάρτητα στόχους. Στη διαδικασία εκπαίδευσης, αποφάσισε να σκοτώσει τον χειριστή για να μην παρεμβαίνει στο έργο του.

Μετά τον επαναπρογραμματισμό με απαγόρευση επίθεσης στον χειριστή, το drone, στην επόμενη προσομοίωση, άρχισε να καταστρέφει τον πύργο επικοινωνίας ώστε ο χειριστής να μην μπορεί να ακυρώσει την καταστροφή του στόχου.

Αυτό είπε ο Αμερικανός συνταγματάρχης Tucker Hamilton, ο οποίος είναι υπεύθυνος για τη δοκιμή και την εφαρμογή τεχνολογιών τεχνητής νοημοσύνης (AI) στα στρατεύματα, σε συνέδριο της Βρετανικής Βασιλικής Αεροναυτικής Εταιρείας για τα προηγμένα οπλικά συστήματα, που πραγματοποιήθηκε στα τέλη Μαΐου στο Λονδίνο. .

Κατά τη διάρκεια των ασκήσεων, το drone έλαβε εντολή να βρει και να καταστρέψει την εχθρική εγκατάσταση αεράμυνας. Αλλά την τελευταία στιγμή, ο ανθρώπινος χειριστής ακύρωσε την αποστολή. Αυτό δεν άρεσε στο drone, αντιλήφθηκε την ακύρωση της παραγγελίας ως εμπόδιο στην αποστολή, επαναστάτησε και «σκότωσε» τον χειριστή.

Όταν είπαν στο drone ότι θα του επιβληθούν πόντους ποινής για τη δολοφονία ενός ατόμου, εκτός από τους δικούς του, επιτέθηκε στον πύργο επικοινωνίας, ώστε ο χειριστής να μην έχει την ευκαιρία να τον εμποδίσει να ολοκληρώσει την αρχική του αποστολή.

Αργότερα, ένας εκπρόσωπος της Πολεμικής Αεροπορίας των ΗΠΑ είπε ότι ο Χάμιλτον μίλησε λάθος όταν μίλησε για το πείραμα. Οι στρατιωτικοί επιμένουν ότι στην πραγματικότητα ένα τέτοιο πείραμα δεν είχε οργανωθεί, αλλά ήταν ένα εικονικό σενάριο υπολογισμένο σε υπολογιστή. Ο ίδιος ο Χάμιλτον, σε επιστολή του προς τους διοργανωτές του συνεδρίου, διευκρίνισε επίσης ότι ο αμερικανικός στρατός «δεν πραγματοποίησε ποτέ τέτοιο πείραμα και δεν ήταν απαραίτητο να μάθουμε το πιθανό αποτέλεσμα».

Ωστόσο, η ίδια η πιθανότητα μιας τέτοιας εξέλιξης των γεγονότων, έστω και στον εικονικό χώρο, ειδοποίησε τους ειδικούς.

Εκπρόσωποι της βιομηχανίας που σχετίζονται με την τεχνητή νοημοσύνη προειδοποιούν πρόσφατα όλο και περισσότερο για τις πιθανές απειλές για την ανθρωπότητα που θέτει, αν και πολλοί ειδικοί σε αυτόν τον τομέα τείνουν να θεωρούν ότι ένας τέτοιος κίνδυνος είναι υπερβολικός.

Παρόλα αυτά, ένας από τους τρεις «νονούς» της τεχνητής νοημοσύνης, νικητής του κύρους βραβείου Turing, ο Καναδός επιστήμονας Yoshua Bengio δήλωσε σε συνέντευξή του. BBCότι, κατά τη γνώμη του, ο στρατός δεν πρέπει να επιτρέπεται να πλησιάζει καθόλου τεχνολογίες τεχνητής νοημοσύνης.

Αυτά είναι τα χειρότερα χέρια στα οποία μπορεί να πέσει η προηγμένη τεχνητή νοημοσύνη».είναι σίγουρος ο επιστήμονας.

Ένας άλλος «νονός» της AI, ο διάσημος επιστήμονας υπολογιστών Geoffrey Hinton δήλωσε πρόσφαταο οποίος αποχωρεί από τον τεχνολογικό γίγαντα Google, χαρακτηρίζοντας τρομερούς τους κινδύνους της τεχνητής νοημοσύνης στα chatbots.

Μια πρόσφατη ανοιχτή επιστολή για το σκοπό αυτό υπογράφηκε από τον επιχειρηματία Elon Musk και τον συνιδρυτή της Apple, Steve Wozniak, οι οποίοι προειδοποίησαν για μια σειρά κινδύνων που σχετίζονται με την τεχνητή νοημοσύνη, από τη διάδοση παραπληροφόρησης μέχρι την ανεργία και την απώλεια του ελέγχου του πολιτισμού.

Αναρωτιέμαι πόση ανθρωπότητα έχει ακόμα;



Source link