«Έχετε επισημανθεί ως απειλή»: Η τεχνολογία προγνωστικής τεχνητής νοημοσύνης βάζει στόχο στην πλάτη σας…

Στο άμεσο μέλλον μόλις σας εντοπίζει μια κάμερα παρακολούθησης, θα σας επισημάνει ένα πρόγραμμα προγνωστικής διαλογής τεχνητής νοημοσύνης και θα σας βάλει σε μια κυβερνητική λίστα παρακολούθησης…είτε πρόκειται για λίστα παρακολούθησης για παραμέληση παιδιών (βλέπε τους γονείς που δεν επιθυμούσαν να φορούν τα παιδιά τους μάσκα στο σχολείο), είτε για λίστα παρακολούθησης ψυχικής υγείας, είτε για λίστα παρακολούθησης αντιφρονούντων, είτε για λίστα παρακολούθησης τρομοκρατών, είτε για λίστα παρακολούθησης όπλων…Το σίγουρο είναι ότι δεν θα υπάρχει σαφής τρόπος να βγείτε από αυτή τη λίστα, είτε έπρεπε είτε όχι να είστε εκεί.

 

“Η κυβερνητική λύση σε ένα πρόβλημα είναι συνήθως τόσο κακή όσο και το πρόβλημα και πολύ συχνά κάνει το πρόβλημα χειρότερο”. – Milton Friedman

Έχετε επισημανθεί ως απειλή. Σε λίγο καιρό, κάθε νοικοκυριό στην Αμερική θα έχει επισημανθεί με τον ίδιο τρόπο και θα του έχει αποδοθεί μια βαθμολογία απειλής.

Χωρίς ποτέ να έχετε διαπράξει εν γνώσει σας κάποιο έγκλημα ή να έχετε καταδικαστεί γι’ αυτό, εσείς και οι συμπολίτες σας έχετε πιθανότατα αξιολογηθεί για συμπεριφορές που η κυβέρνηση θα μπορούσε να θεωρήσει ύπουλες, επικίνδυνες ή ανησυχητικές- σας έχει αποδοθεί μια βαθμολογία απειλής με βάση τις συναναστροφές, τις δραστηριότητες και τις απόψεις σας- και έχετε καταγραφεί σε μια κυβερνητική βάση δεδομένων ανάλογα με το πώς θα πρέπει να σας προσεγγίσει η αστυνομία και άλλες κυβερνητικές υπηρεσίες με βάση το συγκεκριμένο επίπεδο απειλής σας.

Αν δεν σας αγχώνουν οι προεκτάσεις του τροπου με τον οποίο θα μπορούσε να χρησιμοποιηθεί και να καταχραστεί ένα τέτοιο πρόγραμμα, συνεχίστε να διαβάζετε.

Είναι απλώς θέμα χρόνου να βρεθείτε να κατηγορείστε άδικα, να ερευνάται και να αντιμετωπίζετε από την αστυνομία με βάση έναν αλγόριθμο που βασίζεται σε δεδομένα ή σε μια εκτίμηση κινδύνου, η οποία έχει συγκεντρωθεί από ένα πρόγραμμα υπολογιστή που λειτουργεί με τεχνητή νοημοσύνη.

Σκεφτείτε την περίπτωση του Michael Williams, ο οποίος πέρασε σχεδόν ένα χρόνο στη φυλακή για ένα έγκλημα που δεν διέπραξε. Ο Williams βρισκόταν πίσω από το τιμόνι όταν ένα διερχόμενο αυτοκίνητο πυροβόλησε το όχημά του, σκοτώνοντας τον 25χρονο συνεπιβάτη του Safarian Herring, ο οποίος είχε κάνει ωτοστόπ.

Παρά το γεγονός ότι ο Williams δεν είχε κίνητρο, δεν υπήρχαν αυτόπτες μάρτυρες του πυροβολισμού, δεν βρέθηκε όπλο στο αυτοκίνητο και ο ίδιος ο Williams οδήγησε τον Herring στο νοσοκομείο, η αστυνομία κατηγόρησε τον 65χρονο άνδρα για φόνο πρώτου βαθμού με βάση το ShotSpotter, ένα πρόγραμμα ανίχνευσης πυροβολισμών που είχε εντοπίσει έναν δυνατό κρότο στο δίκτυο μικροφώνων παρακολούθησης και τριγωνοποίησε τον θόρυβο ώστε να αντιστοιχεί σε ένα αθόρυβο βίντεο ασφαλείας που έδειχνε το αυτοκίνητο του Williams να περνάει μέσα από μια διασταύρωση. Η υπόθεση τελικά απορρίφθηκε λόγω έλλειψης αποδεικτικών στοιχείων.

Παρόλο που τα προγράμματα ανίχνευσης πυροβολισμών όπως το ShotSpotter κερδίζουν ολοένα και μεγαλύτερη δημοτικότητα στις υπηρεσίες επιβολής του νόμου, στους εισαγγελείς και στα δικαστήρια, είναι γεμάτα ελαττώματα, καθώς μπερδεύουν “κάδους απορριμμάτων, φορτηγά, μοτοσικλέτες, ελικόπτερα, πυροτεχνήματα, κατασκευές, αποκομιδή σκουπιδιών και καμπάνες εκκλησιών… με πυροβολισμούς“.

Όπως διαπίστωσε έρευνα του Associated Press, “το σύστημα μπορεί να χάσει ζωντανούς πυροβολισμούς ακριβώς κάτω από τα μικρόφωνά του, ή να κατατάξει λανθασμένα τους ήχους πυροτεχνημάτων ή αυτοκινήτων που ανάβουν από πίσω ως πυροβολισμούς”.

Σε μια κοινότητα, το ShotSpotter λειτούργησε λιγότερο από το 50% του χρόνου.

Στη συνέχεια, υπάρχει το ανθρώπινο στοιχείο της διαφθοράς που προστίθεται πάντα στο μείγμα. Σε ορισμένες περιπτώσεις, “οι υπάλληλοι άλλαξαν τους ήχους που ανιχνεύει το σύστημα για να πουν ότι πρόκειται για πυροβολισμούς”. Οι εγκληματολογικές εκθέσεις που συντάχθηκαν από τους υπαλλήλους του ShotSpotter έχουν επίσης “χρησιμοποιηθεί στο δικαστήριο για να ισχυριστούν αθέμιτα ότι ένας κατηγορούμενος πυροβόλησε εναντίον της αστυνομίας ή να παράσχουν αμφισβητήσιμες μετρήσεις του αριθμού των πυροβολισμών που φέρονται να έριξαν οι κατηγορούμενοι”.

Η ίδια εταιρεία στην οποία ανήκει το ShotSpotter διαθέτει επίσης ένα πρόγραμμα προγνωστικής αστυνόμευσης που έχει ως στόχο να χρησιμοποιεί δεδομένα ανίχνευσης πυροβολισμών για να “προβλέπει” το έγκλημα πριν αυτό συμβεί. Τόσο ο πρόεδρος Μπάιντεν όσο και ο πρόεδρος Τραμπ έχουν πιέσει για μεγαλύτερη χρήση αυτών των προγραμμάτων πρόβλεψης για την καταπολέμηση της ένοπλης βίας στις κοινότητες, παρά το γεγονός ότι δεν έχει διαπιστωθεί ότι μειώνουν την ένοπλη βία ή αυξάνουν την ασφάλεια της κοινότητας.

Η λογική πίσω από αυτή τη συγχώνευση της εκτεταμένης παρακολούθησης, των τεχνολογιών πρόβλεψης συμπεριφοράς, της εξόρυξης δεδομένων, της προγνωστικής τεχνολογίας και των προγραμμάτων καταδόσεων της γειτονιάς και της οικογένειας είναι δήθεν να επιτρέπει στην κυβέρνηση να λαμβάνει προληπτικά μέτρα για την καταπολέμηση του εγκλήματος (ή ό,τι άλλο έχει επιλέξει η κυβέρνηση να θέσει εκτός νόμου κάθε φορά).

Πρόκειται για προ-έγκλημα, βγαλμένο κατευθείαν από τη σφαίρα δυστοπικών ταινιών επιστημονικής φαντασίας, όπως το Minority Report, το οποίο αποσκοπεί στην πρόληψη των εγκλημάτων πριν συμβούν, αλλά στην πραγματικότητα είναι απλώς ένα ακόμη μέσο για να μπουν οι πολίτες στο στόχαστρο της κυβέρνησης προκειμένου να κλειδώσει το έθνος.

Ακόμη και οι κοινωνικές υπηρεσίες μπαίνουν στη δράση, με αλγόριθμους υπολογιστών που προσπαθούν να προβλέψουν ποια νοικοκυριά μπορεί να είναι ένοχα για κακοποίηση και παραμέληση παιδιών.

Το μόνο που χρειάζεται είναι ένα ρομπότ τεχνητής νοημοσύνης να επισημάνει ένα νοικοκυριό για πιθανή παραμέληση, ώστε μια οικογένεια να ερευνηθεί, να κριθεί ένοχη και τα παιδιά να τοποθετηθούν σε ανάδοχη οικογένεια.

Υπόψιν, η πιθανή παραμέληση μπορεί να περιλαμβάνει τα πάντα, από την ανεπαρκή στέγαση έως την κακή υγιεινή, αλλά είναι διαφορετική από τη σωματική ή σεξουαλική κακοποίηση.

Σύμφωνα με μια ερευνητική έκθεση του Associated Press, μόλις αναφερθούν περιστατικά πιθανής παραμέλησης σε μια τηλεφωνική γραμμή για την προστασία των παιδιών, οι αναφορές περνούν από μια διαδικασία ελέγχου που συγκεντρώνει “προσωπικά δεδομένα που συλλέγονται από τη γέννηση, το Medicaid, τη χρήση ουσιών, την ψυχική υγεία, τις φυλακές και τα αρχεία επιτήρησης, μεταξύ άλλων κυβερνητικών δεδομένων”. Στη συνέχεια, ο αλγόριθμος υπολογίζει τον δυνητικό κίνδυνο του παιδιού και αποδίδει μια βαθμολογία από το 1 έως το 20 για να προβλέψει τον κίνδυνο να τοποθετηθεί ένα παιδί σε ανάδοχη οικογένεια κατά τα δύο έτη μετά την έρευνα“Όσο υψηλότερος είναι ο αριθμός, τόσο μεγαλύτερος είναι ο κίνδυνος. Στη συνέχεια, οι κοινωνικοί λειτουργοί χρησιμοποιούν τη διακριτική τους ευχέρεια για να αποφασίσουν αν θα προβούν σε έρευνα“.

Άλλα μοντέλα πρόβλεψης που χρησιμοποιούνται σε όλη τη χώρα προσπαθούν να εκτιμήσουν τον κίνδυνο ενός παιδιού για θάνατο και σοβαρό τραυματισμό, αν τα παιδιά πρέπει να τοποθετηθούν σε ανάδοχη οικογένεια και αν ναι, πού”.

Είναι απίστευτο ότι δεν υπάρχει κανένας τρόπος για μια οικογένεια να γνωρίζει αν η τεχνολογία πρόβλεψης της τεχνητής νοημοσύνης ήταν υπεύθυνη για τη στοχοποίηση, τη διερεύνηση και τον αποχωρισμό τους από τα παιδιά τους. Όπως σημειώνει το AP, “οι οικογένειες και οι δικηγόροι τους δεν μπορούν ποτέ να είναι σίγουροι ούτε για το ρόλο του αλγορίθμου στη ζωή τους, επειδή δεν επιτρέπεται να γνωρίζουν τα αποτελέσματα.

Ένα πράγμα που γνωρίζουμε, ωστόσο, είναι ότι το σύστημα στοχεύει δυσανάλογα τις φτωχές, μαύρες οικογένειες για παρέμβαση, διακοπή και ενδεχομένως εκτόπιση, επειδή πολλά από τα δεδομένα που χρησιμοποιούνται προέρχονται από κοινότητες με χαμηλότερο εισόδημα και μειονότητες.

Η τεχνολογία δεν είναι επίσης καθόλου αλάνθαστη. Μόνο σε μια κομητεία, ένα τεχνικό σφάλμα παρουσίασε στους κοινωνικούς λειτουργούς λάθος βαθμολογίες, υποτιμώντας ή υπερεκτιμώντας τον κίνδυνο ενός παιδιού.

Ωστόσο, είτε είναι αλάνθαστο είτε όχι, το πρόγραμμα προγνωστικού ελέγχου της τεχνητής νοημοσύνης χρησιμοποιείται ευρέως σε όλη τη χώρα από κυβερνητικές υπηρεσίες για την παρακολούθηση και τη στόχευση οικογενειών προς διερεύνηση. Το επακόλουθο αυτής της υπερβολικής επιτήρησης, σύμφωνα με την Aysha Schomburg, την αναπληρώτρια επίτροπο του Γραφείου Παιδιών των ΗΠΑ, είναι ο “μαζικός διαχωρισμός οικογενειών”.

Ο αντίκτυπος αυτού του είδους των εργαλείων πρόβλεψης της τ%B

Translate »