Οι αλγόριθμοι δεν διαθέτουν συνείδηση, πρόθεση ή λογοδοσία. Είναι μαθηματικά μοντέλα που υλοποιούν πολιτικές που σχεδιάστηκαν και εγκρίθηκαν από ανθρώπους. Και παρότι η λέξη «αυτόνομο» δημιουργεί την εντύπωση ανεξαρτησίας, κανένας αλγόριθμος δεν είναι ανεξάρτητος από τις παραδοχές και τις προκαταλήψεις που έχουν ενσωματωθεί στον σχεδιασμό του.
Το 2016, έγινε γνωστό ότι το λογισμικό COMPAS, που χρησιμοποιείται στις ΗΠΑ για να εκτιμά την πιθανότητα υποτροπής κρατουμένων, παρουσίαζε μεροληψία εις βάρος Αφροαμερικανών. Παρά το γεγονός ότι η εταιρεία που ανέπτυξε το σύστημα αρνήθηκε να αποκαλύψει τον αλγόριθμο, η δημοσιογραφική έρευνα έδειξε πως υπήρχαν στατιστικές στρεβλώσεις στα αποτελέσματα. Ποιος ευθυνόταν; Ο προγραμματιστής; Η εταιρεία; Ο δικαστής που το εμπιστεύτηκε;
Σε κάθε στάδιο της δημιουργίας ενός συστήματος αυτοματοποιημένης απόφασης (από την ανάλυση απαιτήσεων μέχρι την υλοποίηση και την αποδοχή από τους stakeholders), υπάρχει ανθρώπινη συμμετοχή. Ο product owner που παραλείπει να θέσει ερωτήματα ηθικής τάξης, ο data scientist που εκπαιδεύει το μοντέλο με ιστορικά μεροληπτικά δεδομένα, ο προγραμματιστής που υλοποιεί χωρίς τεκμηρίωση πώς λαμβάνεται η απόφαση — όλοι φέρουν μερίδιο ευθύνης.
Το πρόβλημα είναι ότι τα σύγχρονα AI συστήματα βασίζονται σε βαθιά νευρωνικά δίκτυα ή unsupervised μάθηση, και συχνά είναι "μαύρα κουτιά" (black boxes). Η εξηγησιμότητα (explainability) και η δυνατότητα "ανακατασκευής" της απόφασης σε απλή γλώσσα χρήστη είναι περιορισμένες. Εδώ, η ανάγκη για responsibility modeling — δηλαδή την τυπική περιγραφή ποιος ευθύνεται για τι, υπό ποιες προϋποθέσεις — είναι κομβική.
Πολλές εταιρείες χρησιμοποιούν εργαλεία όπως το HireVue, το Pymetrics ή custom-made recommender systems για την αξιολόγηση υποψηφίων εργαζομένων. Τι συμβαίνει όταν απορριφθεί κάποιος εξαιτίας μηχανιστικής ερμηνείας του ύφους ή λέξεων-κλειδιών στο βιογραφικό του; Ποιος τεκμηριώνει το σκεπτικό της απόρριψης;
Αν δεν υπάρχει τρόπος για τον χρήστη να ζητήσει διόρθωση ή αναθεώρηση (right to contest, όπως προβλέπεται από τον GDPR), το σύστημα παραβιάζει θεμελιώδη δικαιώματα.
Η αυτοματοποίηση δεν είναι κακοπροαιρετη. Είναι αποτελεσματική. Αλλά όταν δεν συνοδεύεται από σχεδιασμό για διαφάνεια και επαλήθευση, ενδέχεται να διαιωνίσει σφάλματα και ανισότητες. Ο ρόλος των CTOs, των Business Analysts και των Product Managers δεν είναι απλώς να φέρουν εις πέρας ένα τεχνικό έργο, αλλά να διαμορφώσουν τα όρια της τεχνολογικής ευθύνης.
Ο αλγόριθμος δεν είναι άλλοθι. Είναι εργαλείο. Και κάθε εργαλείο χρειάζεται χέρια — αλλά και αρχές.
Βιβλιογραφία
- Selbst, A. D., & Barocas, S. (2018). The Intuitive Appeal of Explainable Machines. Fordham Law Review.
- O’Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law.
- Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence.
- EU Commission. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου