Μόλις λίγους μήνες πριν, είχαμε επισημάνει ότι το 2024 θα είναι η χρονιά των αγωγών κατά της τεχνητής νοημοσύνης. Και δυστυχώς η πρόβλεψη αυτή βγήκε σωστή. Με άλλα λόγια, η Ιταλική Αρχή Προστασίας Δεδομένων υιοθέτησε μέτρα εναντίον της Open AI για τη χρήση του ChatGPT.
Τι συνέβη;
Τον Μάρτιο του 2023, η αρχή εκκινεί μία έρευνα από την οποία διαπιστώνει παραβάσεις από την Open AI κατά τη λειτουργία του Chat GPT. Πρόκειται για παραβάσεις σχετικά με την επεξεργασία δεδομένων προσωπικού χαρακτήρα στο πλαίσιο του σχεδιασμού, της ανάπτυξης και της παροχής υπηρεσιών που βασίζονται στην τεχνητή νοημοσύνη(ΤΝ).
Έπειτα, το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων δημοσίευσε μία γνώμη της οποίας το πνεύμα συμφωνεί με τα πορίσματα της ιταλικής αρχής. Αν και η Open AI έλαβε γνώση αυτής της διαπίστωσης, συνέχισε τη χρήση αυτών των δεδομένων, χωρίς την έγκριση των χρηστών, παραβιάζοντας την αρχή της διαφάνειας. Η Open AI υπέπεσε, επίσης, στο σφάλμα να μην παρέχει μηχανισμούς επαλήθευσης της ηλικίας των χρηστών. Έτσι, παιδιά ηλικίας 13 ετών ήρθαν ενώπιον πληροφοριών που δεν αρμόζουν στο επίπεδο ανάπτυξης και αυτογνωσίας τους.
Σαν θεραπευτικό μέτρο η Ιταλική αρχή διέταξε την Open AΙ να εφαρμόσει επικοινωνιακή εκστρατεία σε ραδιόφωνο, τηλεόραση, διαδίκτυο και εφημερίδες για την ενημέρωση των σχετικών παραβάσεων. Από την άλλη, το κυρωτικό μέτρο που έλαβε η Αρχή ήταν το πρόστιμο ύψους 15.000.000 ευρώ, λαμβάνοντας υπόψιν και τη στάση συνεργασίας της εταιρίας.
Σκέψεις
Στο κόσμο της τεχνητής νοημοσύνης και της αυτοματοποίησης δύο είναι οι έννοιες που τόσο οι χειριστές της, όσο και οι προγραμματιστές οφείλουν να έχουν ως βάση της σκέψης τους: λογοδοσία και ευθύνη. Λογοδοσία σημαίνει να επικοινωνώ γιατί και πώς συμβαίνει κάτι. Το κομμάτι που υστέρησε θα λέγαμε στην προκειμένη η Open AI. Ευθύνη σημαίνει ανάπτυξη των συστημάτων στη βάση σεβασμού των ανθρωπίνων αξιών και της δημόσιας ασφάλειας.
Προκειμένου να διασφαλιστεί η ύπαρξη της λογοδοσίας και της ευθύνης, θέτουμε σε εφαρμογή κάποιες νομικές αρχές. Ποιες είναι; Καταρχάς το δίκαιο περί αδικοπραξιών. Εσύ, δηλαδή, ή οι τρίτοι που έχουν αντίστοιχο έννομο συμφέρον αν κατά τη χρήση μίας τεχνολογίας τέτοιου τύπου, υποστείς κάποια βλάβη μπορείς να απαιτήσεις αποζημίωση, εφόσον αποδείξεις ότι αιτιωδώς συνδέεται η βλάβη με την κακόβουλη χρήση της ΤΝ.
Το 2018, παραδείγματος χάρη, ένα αυτόνομο αυτοκίνητο της Uber παραβίασε ένα κόκκινο φανάρι που είχε ως συνέπεια τη σύγκρουση με μια πεζή. Δυστυχώς, η τελευταία υπέκυψε στα τραύματά της. Αυτή η υπόθεση έθεσε το ερώτημα ποιός φέρει ευθύνη σχετικά: η Uber, ο οδηγός αυτοκινήτου, ή η ίδια η τεχνολογία ΤΝ; Έπειτα, η ευθύνη λόγω ελαττωματικών προϊόντων, αλλά και η συμβατική ευθύνη.
Με άλλα λόγια, οι συμβαλλόμενοι σε κάποιες περιπτώσεις μπορούν να συμπεριλάβουν όρους για αποζημίωση σε περίπτωση προβλημάτων με τα συστήματα AI. Τέλος, δεν πρέπει να ξεχνάμε τη προστασία που παρέχει η νομοθεσία για προστασία των προσωπικών δεδομένων, όταν η βλάβη σχετίζεται με αυτή την πτυχή δικαιωμάτων.
Κάποιες άλλες υποθέσεις που αξίζει να αναφέρουμε που προσέλκυσαν το ενδιαφέρον των αρχών για ανάγκη περαίτερω ρύθμισης ήταν οι αλγόριθμοι που διακρίνουν κατά τη διαδικασία πρόσληψης και τα παράνομα συστήματα παρακολούθησης. Στα τελευταία έχουμε ασχοληθεί εκτενώς σε προηγούμενα άρθρα. Σχετικά, με τους αλγόριθμους, αξίζει να αναφερθεί το παράδειγμα της Amazon. Συγκεκριμένα, αποκαλύφθηκε πριν λίγα χρόνια ότι ενας αλγόριθμος της Amazon επέλεγε κατά τη διαδικασία πρόσληψης άντρες αντί για γυναίκες, ανεξαρτήτως των ικανοτήτων τους. Αυτό έθεσε ζητήματα διάκρισης και ισότητας.
Με την πάροδο των ετών θα εμφανισθούν και άλλοι νομικοί μηχανισμοί προστασίας έναντι της κακόβουλης χρήσης μίας ΤΝ. Ως χρήστες, οφείλουμε να ενημερωνόμαστε συνεχώς για τις νέες αυτές εξελίξεις. Και αυτό γιατί όπως φάνηκε και στην προκείμενη περίπτωση, κάνεις άλλος δεν θα το κάνει ή τουλάχιστον δεν θα το κάνει αποτελεσματικά, για λογαριασμό μας.