Ο κίνδυνος για τον «Εξολοθρευτή» στο επίκεντρο συζητήσεων του ΟΗΕ
Ο κίνδυνος για τον «Εξολοθρευτή» στο επίκεντρο συζητήσεων του ΟΗΕ

Η ιδέα ενός κόσμου στον οποίο ευφυείς πολεμικές μηχανές θα μπορούν να αποφασίζουν για το ποιος θα ζει και ποιος θα πεθαίνει να ακούγεται εφιαλτική, οι τελευταίες τεχνολογικές εξελίξεις όμως πάνω στην τεχνητή νοημοσύνη θα μπορεί να κάνει τα μελλοντικά αυτοματοποιημένα οπλικά συστήματα να θυμίζουν το σενάριο της ταινίας «Εξολοθρευτής».

Πέρυσι ένας συνασπισμός περισσότερων από 1.000 εμπειρογνωμόνων της τεχνολογίας και της βιομηχανίας απαίτησε να απαγορευτεί η χρησιμοποίηση τεχνητής νοημοσύνης σε οπλικά συστήματα και φαίνεται ότι αυτό θα συμβεί τώρα, σύμφωνα με το livescience.

Αυτό το μήνα στη Σύνοδο για τα Συμβατικά Όπλα στη Γενεύη, 123 έθνη ψήφισαν να ξεκινήσουν επίσημα οι συζητήσεις σχετικά με τους κινδύνους που τίθενται από τα αυτόνομα όπλα, κίνηση που δηλώνει ότι μπορεί να ληφθεί κάποια απόφαση σχετικά με αυτά.

«Τα σχέδια της Κίνας για τα όπλα και την τεχνητή νοημοσύνη μπορεί να μοιάζουν τρομακτικά, αλλά ακόμη πιο τρομακτικές είναι οι παρόμοιες προσπάθειες των ΗΠΑ, της Ρωσία, του Ισραήλ και άλλων χωρών», δήλωσε ένας από τους ιδρυτές της συνόδου Stephen Goose.

«Το βασικό πράγμα που διακρίνει ένα πλήρως αυτόνομο όπλο από ένα συνηθισμένο συμβατικό όπλα, ή ακόμα και ένα ημι-αυτόνομο όπλο σαν τα μη επανδρωμένα οχήματα, είναι ότι ο άνθρωπος πίσω από αυτά αποφασίζει τι ή ποιον θα στοχεύσει και πότε να τραβήξει τη σκανδάλη.»

«Με τη χρήση τεχνητής νοημοσύνης και αισθητήρων δεν υπάρχει ο ο παράγων άνθρωπος και αυτά θα παίρνουν τις κρίσιμες αποφάσεις στο πεδίο της μάχης.»«Αυτό θα αλλάξει την ίδια τη φύση του πολέμου, και όχι τη βελτίωση της ανθρωπότητας».

Ο Goose, δήλωσε ότι η πίεση από επιστημονικούς φορείς, συμπεριλαμβανομένου και των προειδοποιήσεων από τον Στίβεν Χώκινγκ, παρακίνησε τον ΟΗΕ σε δράση.«Η επιστημονική κοινότητα φαίνεται πλέον να ομονοεί κατά την ανάπτυξη των πλήρως αυτόνομων όπλων», είπε. «Οι επιστήμονες ανησυχούν ότι η επιδίωξη κατασκευής τέτοιων πλήρως αυτόνομων όπλων θα βλάψει τη φήμη της επιστημονικής κοινότητας για την τεχνητή νοημοσύνη.»

Εκτός από την προφανή κίνδυνο τα «ρομπότ δολοφόνοι» να πέσουν σε χέρια τρομοκρατών, η ίδια η ανάπτυξη τέτοιων συστημάτων θα μπορούσε να οδηγήσει σε μια «κούρσα εξοπλισμών» που θα απειλούσε τη διεθνή σταθερότητα, δήλωσε ο Goose.«Οι κίνδυνοι από τα πλήρως αυτόνομα όπλα είναι προβλέψιμοι, και θα πρέπει να αναλάβουμε δράση τώρα για την πρόληψη καταστροφική για τους πολίτες, στους στρατιώτες, και τον πλανήτη, επέκτασης τους στο μέλλον», κατέληξε.

Ηλίας Σιατούνης

Post A Comment:

Εγγραφείτε στις ενημερώσεις Push Notifications