Ρομποτική

Τα ρομπότ δολοφόνων θα μπορούσαν να προκαλέσουν μαζικές αγριότητες

Τα ρομπότ δολοφόνων θα μπορούσαν να προκαλέσουν μαζικές αγριότητες


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Τα ρομπότ θα χρησιμοποιηθούν ως στρατιώτες στο μέλλον. Στην πραγματικότητα, ορισμένα ρομπότ καθώς και αεροσκάφη ήδη αναπτύσσονται από τον στρατό. Ευφυή και αυτόνομα ρομπότ που έχουν προγραμματιστεί από ανθρώπους για στόχευση και θανάτωση θα μπορούσαν να διαπράξουν εγκλήματα στο μέλλον. Εκτός εάν υπάρχει μια συνθήκη για την υπεύθυνη χρήση της ρομποτικής και της Τεχνητής Νοημοσύνης (AI).

Η ύπαρξη της τεχνολογίας που μπορεί να δημιουργήσει ρομπότ που σκοτώνουν δεν σημαίνει ότι πρέπει να το χρησιμοποιήσουμε. Όπως είπε κάποτε ο θείος του Spiderman, «με μεγάλη δύναμη έρχεται μεγάλη ευθύνη».

Οι ειδικοί στη μηχανική μάθηση και τη στρατιωτική τεχνολογία λένε ότι θα ήταν τεχνολογικά δυνατό να κατασκευαστούν ρομπότ που λαμβάνουν αποφάσεις σχετικά με το ποιος θα στοχεύσει και θα σκοτώσει χωρίς να εμπλέκεται ανθρώπινος ελεγκτής. Επειδή οι αλγόριθμοι αναγνώρισης προσώπου και λήψης αποφάσεων γίνονται όλο και πιο ισχυροί, θα ήταν πιο εύκολο να επιτευχθεί η δημιουργία τέτοιων ειδών ρομπότ.

Οι κίνδυνοι των ρομπότ δολοφόνων

Οι ερευνητές της τεχνητής νοημοσύνης και της δημόσιας πολιτικής προσπαθούν να καταδείξουν ότι τα ρομπότ δολοφόνων είναι κακή ιδέα στην πραγματική ζωή. Η δημιουργία πλήρως αυτόνομων όπλων θα φέρει νέα τεχνικά και ηθικά διλήμματα.

Επιστήμονες και ακτιβιστές, για αυτόν τον λόγο, ώθησαν τα Ηνωμένα Έθνη και τις παγκόσμιες κυβερνήσεις να αναγνωρίσουν το πρόβλημα και να εξετάσουν μια προληπτική απαγόρευση.

Μπορεί το AI να χρησιμοποιηθεί ως όπλο;

Η σύντομη απάντηση είναι, ναι. Όπως και κάθε άλλη υπάρχουσα τεχνολογία, η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για το καλό, αλλά και για να σκοτώσει. Η αναγνώριση προσώπου και η αναγνώριση αντικειμένων είναι τεχνολογίες που έχουν βελτιωθεί τα τελευταία χρόνια. Θα μπορούσαμε να πούμε ότι έχουν γίνει πολύ πιο ακριβείς, ωστόσο, απέχουν πολύ από το να είναι τέλειοι.

Η αναγνώριση προσώπου και η αναγνώριση αντικειμένων είναι δεξιότητες που ενδέχεται να καταστούν απαραίτητες ως μέρος μιας εργαλειοθήκης για θανατηφόρα αυτόνομα όπλα (ΝΟΜΟΙ). Ωστόσο, είναι επίσης πολύ εύκολο να ξεγελάσεις αυτές τις τεχνολογίες, αν κάποιος θέλει πραγματικά να τους ξεγελάσει.

Στρατιωτικά ρομπότ: Παρόν και μέλλον

Τα στρατιωτικά ρομπότ είναι αυτόνομα ρομπότ ή drone που έχουν σχεδιαστεί για στρατιωτικές εφαρμογές. Τα στρατιωτικά ρομπότ μπορούν να χρησιμοποιηθούν για τη μεταφορά, την αναζήτηση και τη διάσωση, καθώς και για επίθεση, με συνέπεια τη θανάτωση ανθρώπων και ακόμη και την καταστροφή πόλεων.

Ορισμένα από αυτά τα συστήματα αναπτύσσονται αυτήν τη στιγμή και άλλα βρίσκονται υπό ανάπτυξη. Μερικά στρατιωτικά ρομπότ αναπτύσσονται με αυστηρό απόρρητο για να αποτρέψουν άλλους να μάθουν για την ύπαρξή τους.

Οι Ηνωμένες Πολιτείες πετούν ήδη στρατιωτικά αεροσκάφη σε περιοχές όπου οι ΗΠΑ βρίσκονται σε πόλεμο ή συμμετέχουν σε στρατιωτικές επιχειρήσεις. Μέχρι στιγμής, οι ανθρώπινοι ελεγκτές αποφασίζουν πότε αυτά τα αεροσκάφη θα πυροδοτηθούν.

Παρόλο που τα θανατηφόρα αυτόνομα όπλα (LAWS) δεν υπάρχουν ακόμη, - ή αυτό νομίζουμε - η τεχνολογία για την αντικατάσταση των ανθρώπινων ελεγκτών με έναν αλγόριθμο που λαμβάνει την απόφαση για το πότε και τι να πυροβολήσει, πράγματι υπάρχει. Μερικοί ερευνητές AI πιστεύουν ότι το LAWS, με τη μορφή μικρών drone, θα μπορούσε να χρησιμοποιηθεί ως όπλο σε λιγότερο από δύο χρόνια.

Ενώ τα σημερινά αεροσκάφη μεταδίδουν μια ανατροφοδότηση βίντεο σε μια στρατιωτική βάση, όπου ένας ανθρώπινος στρατιώτης λαμβάνει την απόφαση για το αν το drone πρέπει να πυροβολήσει στον στόχο ή όχι, με ένα πλήρως αυτόνομο όπλο ο στρατιώτης δεν θα πάρει αυτήν την απόφαση πλέον. Ένας αλγόριθμος θα λάβει την απόφαση αντ 'αυτού.

Θανατηφόρα αυτόνομα όπλα (ΝΟΜΟΙ): Κινδυνεύουν οι άνθρωποι;

Η εποχή του μηχανοκίνητου πολέμου δεν είναι πολύ μακριά στο μέλλον. Ο στρατός πειραματίζεται με ρομπότ που μπορούν να είναι μέρος του πεδίου της μάχης και χρησιμοποιούνται ως δολοφονικά όπλα. Οι πόλεμοι του μέλλοντος μπορούν στη συνέχεια να είναι πιο υψηλής τεχνολογίας και λιγότερο ανθρώπινοι. Τι συνέπειες θα είχε αυτό για την ανθρωπότητα;

Ο κίνδυνος που προκαλούν τα θανατηφόρα αυτόνομα όπλα (ΝΟΜΟ), επίσης γνωστοί ως δολοφόνα ρομπότ είναι πραγματικός. Ορισμένοι ερευνητές της Τεχνητής Νοημοσύνης (AI) έχουν πολλούς λόγους να υποστηρίξουν τη συναίνεσή τους ότι ο κόσμος πρέπει να απαγορεύσει την ανάπτυξη και την ανάπτυξη θανατηφόρων αυτόνομων όπλων.

Ο λόγος είναι πολύ απλός, οι στρατιωτικές δυνάμεις θα μπορούσαν να παράγουν μαζικά έναν στρατό δολοφόνων ρομπότ αρκετά φθηνά. Ωστόσο, η ανθρωπότητα θα μπορούσε να πληρώσει ένα υψηλό τίμημα. Η κατασκευή και η ενεργοποίηση ρομπότ δολοφόνων θα αύξανε την πιθανότητα διάδοσης και μαζικής θανάτωσης.

Killer ρομπότ: Ένας άνθρωπος είναι πάντα υπεύθυνος για κάθε ενέργεια που κάνει ένα ρομπότ

Σε αυτό το σημείο, τίθεται το ερώτημα, ποιος πρέπει να είναι υπεύθυνος για τις ενέργειες ενός ρομπότ; Και, ποια ρομποτική πρέπει να εφαρμόζεται σε θανατηφόρα αυτόνομα ρομπότ; Κατά τη διάρκεια ενός πολέμου, ή ακόμα και κατά τη διάρκεια μιας μικρότερης σύγκρουσης, τα πράγματα μπορούν να ξεφύγουν από το χέρι. Πρέπει τα ρομπότ δολοφόνων να έχουν πλήρη έλεγχο;

Τα ρομπότ που προορίζονται να χρησιμοποιηθούν σε μια πολεμική σύγκρουση ως μηχανικά όπλα ενσωματωμένα με Τεχνητή Νοημοσύνη και Μηχανική Μάθηση θα πρέπει να έχουν κάποιο διακόπτη on / off.

Σήμερα, οι τρεις νόμοι της ρομποτικής του Ισαάκ Ασίμοφ αντιπροσωπεύουν περισσότερα προβλήματα και συγκρούσεις με τους ρομποτικούς απ 'ό, τι λύνουν.

Οι ρομποτικοί, οι φιλόσοφοι και οι μηχανικοί βλέπουν μια συνεχή συζήτηση για την ηθική των μηχανών. Η ηθική της μηχανής - ή η ρομποτική - είναι μια πρακτική πρόταση για τον τρόπο ταυτόχρονης μηχανικής και παροχής ηθικών κυρώσεων για ρομπότ.

Η Roboethics ασχολείται με τον κώδικα συμπεριφοράς που πρέπει να εφαρμόσουν οι μηχανικοί σχεδιαστών ρομποτικής στην Τεχνητή Νοημοσύνη ενός ρομπότ. Ποιος ή τι πρόκειται να θεωρηθεί υπεύθυνο όταν ή εάν ένα αυτόνομο σύστημα δυσλειτουργεί ή βλάπτει τους ανθρώπους;

Οι τρεις νόμοι της ρομποτικής: Πρέπει να εφαρμόζονται σε ρομπότ δολοφόνων;

Το 1942, ο συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμοφ εισήγαγε τους τρεις νόμους της ρομποτικής - επίσης γνωστοί ως νόμοι του Ασίμοφ - στη διηγήματά του Τρέχουν γύρω. Παρόλο που οι τρεις νόμοι της ρομποτικής του Asimov ήταν μέρος ενός πλασματικού κόσμου, θα μπορούσαν να είναι ένα καλό σημείο εκκίνησης προγραμματισμού ρομπότ σήμερα.

Πριν και εάν οι κυβερνήσεις αναπτύξουν θανατηφόρα αυτόνομα όπλα, θα πρέπει να διασφαλίσουν ότι μπορούν να αποτρέψουν τα δολοφονικά ρομπότ που έχουν σχεδιαστεί να αναπτυχθούν σε ζώνες πολέμου από το να ξεκινήσουν έναν πόλεμο από μόνα τους ή να προκαλέσουν μαζικές θηριωδίες όπως η δολοφονία αμάχων.

Κάποιοι μπορεί να πιστεύουν ότι οι ακόλουθοι Νόμοι της Ρομποτικής έρχονται σε αντίθεση με αυτό που πρέπει να κάνει ένας στρατιώτης. Ίσως αυτό είναι το κύριο σημείο. Με άλλα λόγια, ίσως ένας άνθρωπος δεν πρέπει να δίνει το βρώμικο έργο σε μια μηχανή που δεν είναι ακόμη σε θέση να εξατομικεύσει καταστάσεις και να κρίνει.

  • Ένα ρομπότ δεν μπορεί να τραυματίσει έναν άνθρωπο ή, μέσω αδράνειας, να επιτρέψει σε έναν άνθρωπο να έρθει να βλάψει

  • Ένα ρομπότ πρέπει να υπακούει στις εντολές που δίνονται από τα ανθρώπινα όντα, εκτός εάν οι εντολές αυτές έρχονται σε αντίθεση με τον Πρώτο Νόμο

  • Ένα ρομπότ πρέπει να προστατεύει την ύπαρξή του, εφόσον η προστασία αυτή δεν έρχεται σε αντίθεση με τον Πρώτο ή Δεύτερο Νόμο

Σταματήστε τα ρομπότ δολοφόνων

Υπάρχει μια εκστρατεία για το Stop Killer Robots, ένας συνασπισμός μη κυβερνητικών οργανώσεων που επιδιώκουν να απαγορεύσουν προληπτικά τα θανατηφόρα αυτόνομα όπλα (ΝΟΜΟ).

Ο Γενικός Γραμματέας των Ηνωμένων Εθνών (ΟΗΕ) προέτρεψε τα κράτη να κινηθούν ταχέως για να αντιμετωπίσουν τις ανησυχίες για θανατηφόρα αυτόνομα οπλικά συστήματα στην έκθεσή του 2020 για την προστασία των αμάχων σε ένοπλες συγκρούσεις. Αυτή είναι η πρώτη έκθεση για την προστασία των πολιτών του ΟΗΕ από το 2013 που υπογραμμίζει τις γενικές ανησυχίες για τα ρομπότ δολοφόνων.

Στην έκθεση 2020, ο Γενικός Γραμματέας António Guterres διαπιστώνει ότι «όλες οι πλευρές φαίνεται να συμφωνούν ότι, τουλάχιστον, απαιτείται διατήρηση του ανθρώπινου ελέγχου ή κρίση σχετικά με τη χρήση βίας». Σημειώνει επίσης ότι «ένας αυξανόμενος αριθμός κρατών μελών ζήτησε την απαγόρευση του ΝΟΜΟΥ». Από τον Νοέμβριο του 2018, ο Γενικός Γραμματέας του ΟΗΕ έχει επανειλημμένα εκφράσει την επιθυμία του για μια νέα διεθνή συνθήκη για την απαγόρευση δολοφονικών ρομπότ.

Η εκστρατεία για το Stop Killer Robots επαινεί τα Ηνωμένα Έθνη να παροτρύνουν τα κράτη να συμφωνήσουν για «περιορισμούς και υποχρεώσεις που πρέπει να εφαρμόζονται στην αυτονομία στα όπλα». Τα κράτη πρέπει να ξεκινήσουν τώρα διαπραγματεύσεις για μια νέα διεθνή συνθήκη για την απαγόρευση πλήρως αυτόνομων όπλων, διατηρώντας παράλληλα τον ουσιαστικό ανθρώπινο έλεγχο της χρήσης βίας.

Πώς να σκοτώσετε ένα ρομπότ

Πιθανότατα, οι θανατηφόροι αυτόνομοι κατασκευαστές ρομπότ αποστέλλουν τα δολοφόνα ρομπότ τους με ένα εγχειρίδιο οδηγιών όπου υπάρχει η επιλογή να εισάγετε απομακρυσμένα έναν κωδικό ασφαλείας για να απενεργοποιήσετε ένα δολοφόνο ρομπότ.

Εάν αυτό δεν είναι μια επιλογή, ένας αξιόπιστος τρόπος για να σκοτώσετε ένα ρομπότ θα ήταν να χρησιμοποιήσετε έναν ηλεκτρομαγνητικό παλμό (EMP) για να προκαλέσετε ένα υψηλό ρεύμα που θα κάψει το κύκλωμα του ρομπότ. Φυσικά, αυτό προϋποθέτει ότι το δολοφόνο ρομπότ δεν προστατεύεται από ένα Faraday Cage.


Δες το βίντεο: Κατά συρροή δολοφόνοι: ΧΡΗΣΤΟΣ ΠΑΠΑΔΟΠΟΥΛΟΣ (Ιανουάριος 2023).