Όλα συμπεριλαμβάνονται

Μπορεί το AI να είναι πιο αποτελεσματικό από τα άτομα στο δικαστικό σύστημα;

Μπορεί το AI να είναι πιο αποτελεσματικό από τα άτομα στο δικαστικό σύστημα;


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Η τεχνητή νοημοσύνη είναι έτοιμη να αντικαταστήσει πολλές ανθρώπινες θέσεις εργασίας στο μέλλον, αλλά πρέπει να είναι μεταξύ αυτών δικηγόροι και δικαστές; Εδώ διερευνούμε πού χρησιμοποιείται ήδη το AI σε δικαστικά συστήματα σε όλο τον κόσμο και συζητάμε αν πρέπει να διαδραματίζει ευρύτερο ρόλο.

Συγκεκριμένα, θα μπορούσε ή θα έπρεπε να αναπτυχθεί AI που θα μπορούσε να κρίνει έναν ζωντανό, αναπνέοντα άνθρωπο;

ΣΧΕΤΙΖΕΤΑΙ ΜΕ: Η ΚΙΝΑ ΑΠΕΥΘΥΝΕΤΑΙ ΜΕ ΔΙΚΑΣΤΗ ΤΟΥ AI ΠΟΥ «ΒΟΗΘΕΙΑ» ΜΕ ΔΙΑΔΙΚΑΣΙΕΣ

Πώς χρησιμοποιείται το AI στα δικαστικά συστήματα;

Είτε το πιστεύετε είτε όχι, το AI και άλλες μορφές προηγμένων αλγορίθμων χρησιμοποιούνται ήδη ευρέως σε πολλά δικαστικά συστήματα σε όλο τον κόσμο. Για παράδειγμα, σε ορισμένες πολιτείες των Ηνωμένων Πολιτειών, οι αλγόριθμοι πρόβλεψης χρησιμοποιούνται επί του παρόντος για τη μείωση του φορτίου στο δικαστικό σύστημα.

"Υπό τεράστια πίεση για να μειώσει τον αριθμό των φυλακών χωρίς να διακινδυνεύσει την αύξηση του εγκλήματος, οι δικαστικές αίθουσες στις ΗΠΑ έχουν στραφεί σε αυτοματοποιημένα εργαλεία σε προσπάθειες να ανακατέψουν τους κατηγορουμένους μέσω του νομικού συστήματος όσο το δυνατόν πιο αποτελεσματικά και με ασφάλεια." - Επισκόπηση τεχνολογίας.

Για να επιτευχθεί αυτό, οι αστυνομικές υπηρεσίες των Η.Π.Α. χρησιμοποιούν αλγόριθμους πρόβλεψης για να αναπτύξουν στρατηγικές για το πού να αναπτύξουν τις δυνάμεις τους πιο αποτελεσματικά. Χρησιμοποιώντας μια ανάλυση ιστορικών στατιστικών εγκλημάτων και τεχνολογίας όπως η αναγνώριση προσώπου, ελπίζεται ότι αυτό το επίπεδο αυτοματισμού θα βοηθήσει στη βελτίωση της αποτελεσματικότητας των ανθρώπινων πόρων τους.

Η δικαστική υπηρεσία των Η.Π.Α. χρησιμοποιεί επίσης άλλες μορφές αλγορίθμων, που ονομάζονται αλγόριθμοι αξιολόγησης κινδύνων, για να βοηθήσει επίσης στη διαχείριση υποθέσεων μετά τη σύλληψη.

"Τα εργαλεία εκτίμησης κινδύνων έχουν σχεδιαστεί για να κάνουν ένα πράγμα: πάρτε τις λεπτομέρειες του προφίλ του εναγόμενου και φτιάξτε μια βαθμολογία υποτροπής - έναν μόνο αριθμό που υπολογίζει την πιθανότητα να προσβληθεί εκ νέου.

Στη συνέχεια, ένας δικαστής συνεισφέρει σε πολλές αποφάσεις που μπορούν να καθορίσουν τι είδους υπηρεσίες αποκατάστασης πρέπει να λάβουν συγκεκριμένοι κατηγορούμενοι, εάν πρέπει να κρατούνται στη φυλακή πριν από τη δίκη και πόσο σοβαρές θα πρέπει να είναι οι ποινές τους. Ένα χαμηλό σκορ ανοίγει το δρόμο για μια ευγενική μοίρα. Ένα υψηλό σκορ κάνει ακριβώς το αντίθετο. "- Επισκόπηση τεχνολογίας.

Στην Κίνα, οι δικαστές με τεχνητή νοημοσύνη γίνονται επίσης πραγματικότητα. Ανακηρύχθηκε ως «το πρώτο του είδους στον κόσμο», η πόλη του Πεκίνου έχει εισαγάγει ένα διαδικτυακό κέντρο υπηρεσιών δικαστικών διαφορών που διαθέτει έναν δικαστή AI για συγκεκριμένους τύπους υποθέσεων.

Ο δικαστής, που ονομάζεται Xinhua, είναι μια τεχνητή γυναίκα με σώμα, εκφράσεις του προσώπου, φωνή και ενέργειες που βασίζονται σε μια υπάρχουσα ανθρώπινη γυναίκα που ζει και αναπνέει στη δικαστική υπηρεσία του Πεκίνου.

Αυτός ο εικονικός δικαστής χρησιμοποιείται κυρίως για βασικές επαναλαμβανόμενες υποθέσεις, σύμφωνα με δήλωση του Δικαστηρίου Διαδικτύου Bejing. Η «αυτή» ασχολείται κυρίως με τη λήψη δικαστικών διαδικασιών και την ηλεκτρονική καθοδήγηση παρά την τελική κρίση.

Η ελπίδα είναι ότι η χρήση του δικαστή με την τεχνητή νοημοσύνη και του διαδικτυακού δικαστηρίου θα καταστήσει την πρόσβαση στη δικαστική διαδικασία πιο αποτελεσματική και ευρύτερη για τους πολίτες του Πεκίνου.

"Σύμφωνα με τον πρόεδρο του δικαστηρίου Ζανγκ Γουεν, η ενσωμάτωση της τεχνολογίας AI και cloud στο σύστημα υπηρεσιών δικαστικών διαφορών θα επιτρέψει στο κοινό να αποκομίσει καλύτερα τα οφέλη της τεχνολογικής καινοτομίας στην Κίνα." - Radii Κίνα.

Η τεχνητή νοημοσύνη χρησιμοποιείται επίσης στην Κίνα για να εξετάσει μηνύματα κοινωνικής δικτύωσης, σχόλια και άλλες διαδικτυακές δραστηριότητες για να βοηθήσει στη δημιουργία αποδεικτικών στοιχείων εναντίον δυνητικών κατηγορουμένων. Η τροχαία στην Κίνα αρχίζει επίσης να χρησιμοποιεί τεχνολογία αναγνώρισης προσώπου για τον εντοπισμό και την καταδίκη των παραβατών.

Άλλες αστυνομικές δυνάμεις σε όλο τον κόσμο χρησιμοποιούν επίσης παρόμοια τεχνολογία.

Θα μπορούσε η Τεχνητή Νοημοσύνη να λάβει ποτέ καλές αποφάσεις;

Η απάντηση σε αυτήν την ερώτηση δεν είναι απλή. Ενώ η AI μπορεί να λάβει ορισμένους τύπους νομικών αποφάσεων, αυτό δεν σημαίνει ότι είναι απαραίτητα καλή ιδέα.

Πολλά συστήματα AI και αλγόριθμοι πρόβλεψης που χρησιμοποιούν μηχανική μάθηση τείνουν να εκπαιδεύονται χρησιμοποιώντας υπάρχοντα σύνολα δεδομένων ή υπάρχουσες ιστορικές πληροφορίες.

Ενώ αυτό ακούγεται σαν μια σχετικά λογική προσέγγιση, εξαρτάται σε μεγάλο βαθμό από τον τύπο και την ποιότητα των παρεχόμενων δεδομένων.

"Ανεπιθύμητα μέσα, σκουπίδια." όπως λέει και το ρητό.

Μία σημαντική χρήση της μηχανικής μάθησης και των μεγάλων δεδομένων είναι ο εντοπισμός συσχετίσεων, ή φαινομένων συσχετίσεων, σε σύνολα δεδομένων. Αυτό θα μπορούσε δυνητικά να οδηγήσει σε ψευδώς θετικά, στην περίπτωση δεδομένων εγκλήματος, και στην πραγματικότητα να μην είναι πολύ χρήσιμο για τον εντοπισμό των υποκείμενων αιτίων του εγκλήματος.

Όπως προειδοποιεί μια άλλη διάσημη παροιμία, «η συσχέτιση δεν είναι αιτιώδης συνάφεια».

Οι άνθρωποι είναι συχνά εξίσου ένοχοι για αυτήν τη λογική πλάνη, όπως θα μπορούσε να είναι ένα τεχνητό αντίγραφο. Ένα διάσημο παράδειγμα είναι η συσχέτιση μεταξύ του χαμηλού εισοδήματος και της ευαισθησίας ενός ατόμου προς το έγκλημα.

Η φτώχεια δεν είναι απαραίτητα άμεση αιτία εγκληματικής συμπεριφοράς, αλλά μπορεί να είναι μια έμμεση αιτία, δημιουργώντας συνθήκες που καθιστούν το έγκλημα πιο πιθανό.

Εάν δεν αντιμετωπιστούν σωστά παρόμοια σφάλματα συσχέτισης, μια απόφαση ή απόφαση επιβολής του νόμου AI θα μπορούσε γρήγορα να εκφυλιστεί σε έναν φαύλο κύκλο επιβολής ποινών που είναι πολύ σοβαρές ή πολύ επιεικείς.

Όπως συμβαίνει με όλα στη ζωή, η κατάσταση είναι πραγματικά πιο αποχρώσιμη από ό, τι φαίνεται. Οι άνθρωποι δεν είναι επίσης τέλειες μηχανές λήψης αποφάσεων.

Εάν οι μελέτες από το 2018 είναι επίσης σωστές, φαίνεται ότι η τεχνητή νοημοσύνη μπορεί να είναι ταχύτερη και πιο ακριβής για τον εντοπισμό πιθανών νομικών ζητημάτων από ό, τι τα ανθρώπινα όντα. Αυτό υποστηρίζει το επιχείρημα ότι το AI θα πρέπει να χρησιμοποιείται σε ρόλους νομικής υποστήριξης ή τουλάχιστον να εξετάζει το νομικό προηγούμενο.

Θα μπορούσε το AI να χρησιμοποιηθεί για την αντικατάσταση ανθρώπινων δικαστών;

Όπως έχουμε ήδη δει, οι AI και οι προηγμένοι αλγόριθμοι χρησιμοποιούνται ήδη σε όλο τον κόσμο για ορισμένες εργασίες γραφείου και συλλογής δεδομένων. Πράγματι, κάνουν κάποια από τα «legwork» για τους ανθρώπινους δικαστές και δικηγόρους.

Αλλά θα μπορούσαν ποτέ να χρησιμοποιηθούν για την πλήρη αντικατάσταση των ανθρώπων σε ένα δικαστικό σύστημα; Ποια ακριβώς θα ήταν τα πλεονεκτήματα και τα μειονεκτήματα του πράγματος;

Πολλοί θα ισχυρίστηκαν ότι μια τεχνητή νοημοσύνη θα πρέπει να είναι σε θέση να εξαλείψει τυχόν προκατάληψη στην τελική διαδικασία λήψης αποφάσεων. Οι τελικές αποφάσεις τους θα πρέπει, θεωρητικά, να βασίζονται αποκλειστικά στα πραγματικά περιστατικά και στο υφιστάμενο νομικό προηγούμενο.

Αυτό, φυσικά, υποτίθεται ότι ισχύει ήδη για τους ανθρώπινους δικαστές. Όμως οποιοσδήποτε άνθρωπος είναι επιρρεπής σε ακατάλληλη γνώση, προκατάληψη και ασυνείδητη προκατάληψη, παρά τις καλύτερες προθέσεις.

Αλλά, πιθανώς πιο σημαντικό, επειδή κάτι είναι νόμος δεν είναι απαραίτητο σημαίνει ότι είναι απλά. Η «καλή» και η «κακή» συμπεριφορά δεν είναι ασπρόμαυρη, είναι μια πολύ λεπτή και εντελώς ανθρώπινη κατασκευή.

Τέτοιες ερωτήσεις παραμένουν στο πεδίο της φιλοσοφίας και όχι της επιστήμης των υπολογιστών. Αν και, άλλοι πιθανότατα θα διαφωνούσαν, και αυτό μπορεί να θεωρηθεί ως «καλό» πράγμα.

Οι δικαστές έχουν επίσης το ρόλο να λαμβάνουν αποφάσεις σχετικά με την τιμωρία του δράστη μετά την καταδίκη. Αυτά μπορεί να κυμαίνονται από τα μικρά (μικρά πρόστιμα) έως την αλλαγή ζωής, όπως η επιβολή μακροχρόνιας φυλάκισης ή ακόμη και η θανατική ποινή σε περιοχές όπου χρησιμοποιείται.

Τέτοιες αποφάσεις βασίζονται γενικά σε ένα σύνολο οδηγιών καταδίκης που λαμβάνουν υπόψη παράγοντες όπως η σοβαρότητα ενός εγκλήματος, η επίδρασή του στα θύματα, οι προηγούμενες καταδίκες και η πιθανότητα επανάληψης του καταδίκου. Όπως είδαμε, αυτός είναι ένας τομέας όπου οι αλγόριθμοι AI και προβλέψεων χρησιμοποιούνται ήδη για να βοηθήσουν στη διαδικασία λήψης αποφάσεων.

Οι δικαστές μπορούν, φυσικά, να αγνοήσουν εντελώς τη σύσταση από το AI. Αλλά αυτό δεν θα ήταν δυνατό εάν οι άνθρωποι είχαν απομακρυνθεί εντελώς από τη διαδικασία.

Ίσως θα μπορούσε να γίνει μια υπόθεση για ομάδες δικαστών AI που αποτελούνται από ένα δημιουργικό δίκτυο αντιπαραθέσεων (GAN).

Αλλά αυτό είναι πέρα ​​από το πεδίο αυτού του άρθρου.

Θα ήταν αμερόληπτοι οι δικαστές AI;

Ένα προφανές όφελος από τη χρήση της τεχνητής νοημοσύνης για τη λήψη αποφάσεων είναι ότι οι αλγόριθμοι δεν μπορούν πραγματικά να έχουν προκατάληψη. Αυτό θα πρέπει να κάνει το AI σχεδόν τέλειο για νομικές αποφάσεις, καθώς η διαδικασία πρέπει να βασίζεται σε αποδεικτικά στοιχεία και όχι υποκειμενικά - όπως μπορεί να ισχύει για τους ανθρώπινους δικαστές.

Ακούγεται τέλειο, έτσι δεν είναι; Αλλά "το γρασίδι δεν είναι πάντα πιο πράσινο από την άλλη πλευρά."

Οι αλγόριθμοι και η τεχνητή νοημοσύνη δεν είναι τέλεια από μόνα τους. Αυτό συμβαίνει κυρίως επειδή οποιοσδήποτε αλγόριθμος ή AI πρέπει πρώτα να κωδικοποιηθεί από έναν άνθρωπο.

Αυτό μπορεί να προκαλέσει ακούσια προκατάληψη από την αρχή.

Τα AI μπορούν επίσης να μάθουν και να μιμούνται προκατάληψη από τους ανθρώπινους ομολόγους τους και από τα συγκεκριμένα δεδομένα με τα οποία έχουν εκπαιδευτεί. Θα μπορούσε αυτό να μετριαστεί;

Ένα άλλο ζήτημα είναι ποιος θα επιβλέπει τους δικαστές AI; Θα μπορούσαν να αμφισβητηθούν αργότερα οι αποφάσεις τους; Θα υπερισχύουν οι ανθρώπινοι δικαστές σε μια απόφαση μιας τεχνητής νοημοσύνης ή το αντίστροφο;

Η Διάσκεψη Κορυφής της Παγκόσμιας Κυβέρνησης που πραγματοποιήθηκε το 2018, έκανε ένα ενδιαφέρον και οδυνηρό συμπέρασμα σχετικά με αυτό το θέμα που επαναλαμβάνεται κατά λέξει: -

"Δεν είναι ακόμη αβέβαιο ποια από αυτές τις τεχνολογίες μπορεί να διαδοθεί και πώς διαφορετικές κυβερνήσεις και δικαστές θα επιλέξουν να παρακολουθήσουν τη χρήση τους.

Η μέρα που η τεχνολογία θα γίνει κριτής της καλής και κακής ανθρώπινης συμπεριφοράς και θα επιβάλει τις κατάλληλες τιμωρίες εξακολουθεί να βρίσκεται στο μέλλον.

Ωστόσο, τα νομικά συστήματα παρέχουν συχνά ιδανικά παραδείγματα υπηρεσιών που θα μπορούσαν να βελτιωθούν, ενώ οι δοκιμές είναι πιθανό να επωφεληθούν από την καλύτερη ανάλυση δεδομένων. Ο νόμος συχνά απαιτεί μια δίκη για να δημιουργήσει ένα προηγούμενο - οπότε προσέξτε τη δοκιμαστική υπόθεση της AI ως δικαστή. "

Συμπερασματικά, θα μπορούσε η AI να αντικαταστήσει ποτέ τους επαγγελματίες του ανθρώπου ή να είναι πιο αποτελεσματική στη λήψη νομικών αποφάσεων; Φαίνεται ότι η απάντηση είναι ναι και όχι.

Ναι, όσον αφορά την εκτέλεση υποστήριξης ή συμβουλευτικών ρόλων, όπως η συγκέντρωση αποδεικτικών στοιχείων ή η εκτίμηση της πιθανότητας επανεμφάνισης. Όχι, όσον αφορά τη λήψη οριστικών αποφάσεων και αποφάσεων καταδίκης.

Είναι πιθανότατα συνετό να δοθεί στους ανθρώπους, παρά στον κώδικα, η τελευταία λέξη όταν πρόκειται για καταδίκη. Το δίκαιο και τα νομικά συστήματα μπορούν, τελικά, να χαρακτηριστούν νόμιμα ως ανθρώπινη κατασκευή.

Τα υπάρχοντα νομικά συστήματα είναι τόσο όμορφα εντυπωσιακά όσο και ενοχλητικά παράλογα κατά καιρούς, και έχουν προσαρμοστεί και αναβαθμιστεί καθώς η αίσθηση και οι ευαισθησίες εξελίχθηκαν με την πάροδο του χρόνου - και αυτό ταιριάζει στα ανθρώπινα όντα. Τα περισσότερα νομικά συστήματα δεν παραμένουν πέτρινα για πάντα. εξελίσσονται όπως και η κοινωνία.

Δεν είναι πιθανό ότι μια μηχανή θα μπορούσε ποτέ να εκπαιδευτεί για να κατανοήσει, να κατανοήσει ή να κρίνει "στο πνεύμα του νόμου."

Ίσως οι άνθρωποι, με όλες τις ατέλειές μας και τις λογικές ασυνέπειες, είναι οι μόνοι πιθανοί διαιτητές της δικαιοσύνης ο ένας στον άλλο. Για αυτόν τον λόγο, θα μπορούσε να υποστηριχθεί ότι η «δικαιοσύνη» δεν πρέπει ποτέ να μεταβιβάζεται σε μηχανές, καθώς η «ψυχρή λογική» τους θα μπορούσε να θεωρηθεί ότι έρχεται σε αντίθεση με την «ανθρώπινη κατάσταση».

Αλλά θα σας αφήσουμε να αποφασίσετε.


Δες το βίντεο: Ψυχολογία. Όρια. Τι είναι,σε τι χρησιμεύουν και πως θα καταλάβεις, αν έχεις αδύναμα όρια. (Ιούλιος 2022).


Σχόλια:

  1. Fitzwater

    Εχεις απολυτο δικιο. In it something is also idea excellent, agree with you.

  2. Konna

    Κάνετε λάθος. Είμαι σίγουρος. Πρέπει να συζητήσουμε. Γράψε μου στο PM.

  3. Musar

    Σύνδεσμοι σφαγής !!!!!!!!!!! Ευχαριστώ!!!!!

  4. Jerad

    the incomparable phrase

  5. Tymothy

    Νομίζω ότι κάνεις λάθος. Είμαι σίγουρος. Μπορώ να υπερασπιστώ τη θέση μου. Στείλτε μου email στο PM, θα συζητήσουμε.



Γράψε ένα μήνυμα