Δεν υπάρχει αμφιβολία πως η είσοδος της Τεχνητής Νοημοσύνης στην καθημερινότητά μας αποκτά ολοένα ισχυρότερα ερείσματα, καθώς η αξιοποίησή της επεκτείνεται πλέον σε πλήθος τομείς, συμβάλλοντας με πολλούς και καινοτόμους τρόπους στην παρακολούθηση, τη διαχείριση και την πρόβλεψη, σε συνδυασμό με τη λήψη κρίσιμων αποφάσεων. Η κρίση του αλγόριθμου συχνά υπερισχύει εκείνης των ανθρώπων, ως πιο αμερόληπτη και αδέκαστη – είναι, όμως, έτσι στην πραγματικότητα; Σε ποιο βαθμό μπορούμε να εμπιστευτούμε τα απρόσωπα συστήματα; Και πώς μπορούμε να εξασφαλίσουμε ότι η κρίση τους θα είναι διαφανής, δίκαιη και υπεύθυνη, χωρίς αποκλεισμούς;
Το Digital Finance ζήτησε τη γνώμη των εκπροσώπων τριών χαρακτηριστικών φορέων – όλων βασικών stakeholders στη διαμορφούμενη «νέα κανονικότητα»: μιας ψηφιακής ασφαλιστικής εταιρίας, μιας τεχνολογικής – παρόχου λύσεων, αλλά κι ενός κοινωνιολόγου, ηγετικού στελέχους θεσμικού φορέα, αρμόδιου σε θέματα Τεχνο-ηθικής.

Στις περισσότερες περιπτώσεις, οι αποφάσεις της μηχανής είναι πολύ πιο ακριβείς από τις ανθρώπινες, ιδίως όταν οι αποφάσεις σχετίζονται με την αξιολόγηση ή τιμολόγηση κάποιου ρίσκου. Εκεί, η απόφαση της μηχανής αποτελεί νόμο για μας και δεν δίνουμε οποιοδήποτε περιθώριο στον ανθρώπινο παράγοντα.
Συνδυάζουμε αλγορίθμους και ανθρώπινη εμπειρία
Τις επιλογές της Hellas Direct, «μιας αμιγώς ψηφιακής ασφαλιστικής εταιρίας επόμενης γενιάς», σχετικά με την αξιοποίηση του ΑΙ, καταθέτει στο Digital Finance o συνιδρυτής και CEO της, Αλέξης Πανταζής. Αποκαλύπτει ότι διαθέτουν δική τους, πολυμελή ομάδα για την ανάπτυξη λογισμικού αποκλειστικής χρήσης, που βοηθά στη γρήγορη λήψη αποφάσεων, αλλά -σε κάποιες περιπτώσεις- καταβάλλεται προσπάθεια αυτό να συνδυαστεί με την ανθρώπινη εμπειρία.
Σε ποιο βαθμό αξιοποιείτε την Τεχνητή Νοημοσύνη στο λογισμικό σας και για να καλύψετε ποιες ανάγκες;
Η Hellas Direct είναι μία αμιγώς ψηφιακή ασφαλιστική εταιρία επόμενης γενιάς. Η χρήση μηχανικής μάθησης και τεχνολογιών αιχμής είναι στο DNA μας από την ημέρα ίδρυσής μας και αποτελεί σημαντικό συγκριτικό πλεονέκτημα της εταιρίας. Έχουμε χτίσει μία εσωτερική ομάδα με 50 εξειδικευμένους προγραμματιστές, επιστήμονες δεδομένων και αναλογιστές, η οποία αναπτύσσει λογισμικό αποκλειστικής χρήσης και επεξεργάζεται μια κεντροποιημένη βάση μαζικών δεδομένων, σε πραγματικό χρόνο. Αυτό μας επιτρέπει να παίρνουμε γρήγορες αποφάσεις -πολλές φορές απόλυτα αυτοματοποιημένες- σε όλη την αλυσίδα αξίας της εταιρίας, από την πρώτη αξιολόγηση και αναδοχή ενός ρίσκου, μέχρι και την τελική διευθέτηση μιας ζημιάς.
Αυτό το λογισμικό είναι δικό σας (δημιούργημα των δικών σας μηχανικών) ή «έτοιμη» διεθνής λύση, έστω παραμετροποιημένη;
Η ομάδα μας χρησιμοποιεί διάφορες γλώσσες προγραμματισμού και εφαρμογές ανοιχτού κώδικα, αλλά η ανάπτυξη των μοντέλων και αλγορίθμων που χρησιμοποιούμε στην μηχανική μάθηση έχει αναπτυχθεί από εμάς και για δική μας, αποκλειστική χρήση.
Πώς εξασφαλίζετε την «ανθρώπινη» διάσταση (αυτή που διέθετε, παλιά, ο ασφαλιστής) στις αποφάσεις της μηχανής; Υπάρχει κάποια «επίβλεψη» ή συνεργασία των δυο μερών στις τυχόν αμφισβητούμενες περιπτώσεις ή ό,τι πει η μηχανή είναι νόμος;
Αυτή είναι μία εύστοχη ερώτηση κι ένα θέμα το οποίο μας απασχολεί συχνά. Τα μοντέλα τα οποία αναπτύσσουμε και οι αλγόριθμοί μας ενημερώνονται καθημερινά με καινούρια δεδομένα και εξελίσσονται συνεχώς. Στις περισσότερες περιπτώσεις, οι αποφάσεις της μηχανής είναι πολύ πιο ακριβείς από τις ανθρώπινες (όση εμπειρία και να έχει κανείς), ιδίως όταν οι αποφάσεις σχετίζονται με την αξιολόγηση ή τιμολόγηση κάποιου ρίσκου. Εκεί, η απόφαση της μηχανής αποτελεί νόμο για μας και δεν δίνουμε οποιοδήποτε περιθώριο στον ανθρώπινο παράγοντα. Σε άλλες περιπτώσεις, όπως αποφάσεις που σχετίζονται με τη διερεύνηση κάποιας πιθανής απάτης ή την επιλογή της σωστής διαπραγματευτικής στρατηγικής σε μία δικαστική υπόθεση, η ανθρώπινη εμπειρία μπορεί να έχει σημαντική συμβολή και τείνουμε προς μία συμβιβαστική προσέγγιση που συνδυάζει και τα δύο.
Βλέπετε να αυξάνει η εμπλοκή του ΑΙ στον ασφαλιστικό χώρο και, αν ναι, χρειάζονται κάποιοι έλεγχοι / βελτιώσεις / ενημερώσεις; Γίνονται βάσει feedback από τους πελάτες σας, πόσο συχνά συμβαίνει αυτό και ποιος αναλαμβάνει την υλοποίηση;
Σίγουρα! Η τεχνητή νοημοσύνη θα αλλάξει ριζικά τον ασφαλιστικό κλάδο και εταιρίες που δεν θα προλάβουν να προσαρμοστούν στις καινούριες συνθήκες δεν θα μπορέσουν να επιβιώσουν. Αυτό αναφέρει και στο τελευταίο του βιβλίο ο Daniel Kahneman (το βιβλίο λέγεται “Noise” και το συνιστώ ανεπιφύλακτα). O Kahneman περιγράφει μία μελέτη των αποκλίσεων στην αξιολόγηση του κόστους μιας σειράς από ζημιές από 48 έμπειρους διακανονιστές, οι οποίες διαφέρουν κατά μέσο όρο 55%! Αυτά τα περιθώρια σφάλματος και στατιστικού θορύβου δεν μπορεί να είναι αποδεκτά σε μία σύγχρονη, τεχνολογικά ανεπτυγμένη ασφαλιστική εταιρία.
Όπως συμβαίνει και σε πολλούς άλλους κλάδους όμως, η ευρύτερη αποδοχή της Τεχνητής Νοημοσύνης στον ασφαλιστικό χώρο εξαρτάται από πολλές άλλες παραμέτρους – π.χ. την ευκολότερη πρόσβαση σε μη ευαίσθητα προσωπικά δεδομένα (βλέπουμε κάποιες ενθαρρυντικές κινήσεις στο χώρο της κινητικότητας από το υπουργείο Ψηφιακής Διακυβέρνησης), την συγκατάθεση του καταναλωτή στην επεξεργασία ευαίσθητων προσωπικών δεδομένων (πάντα με βάση το GDPR και ξεκάθαρους περιορισμούς στη χρήση αυτών των δεδομένων), την πρόσληψη του κατάλληλου επιστημονικού προσωπικού από ασφαλιστικές εταιρίες κλπ.
Ο λόγος ύπαρξης της Hellas Direct είναι η παροχή δικαιότερης τιμής και καλύτερης εξυπηρέτησης σε συγκεκριμένες κατηγορίες καταναλωτών που πιστεύουμε ότι αδικούνται από την ασφαλιστική αγορά. Ο τρόπος με τον οποίο εξελιχθήκαμε τα τελευταία χρόνια ήταν πάντα το feedback των 250.000 πελατών μας. Ακούμε τον κάθε πελάτη μας και προσαρμόζουμε κατάλληλα την προσέγγισή μας, ώστε να βελτιώσουμε τον τρόπο λειτουργίας μας. Αυτό αφορά (α) βελτιώσεις σε επίπεδο προϊόντος (το 2015 λανσάραμε την ασφάλιση με τη μέρα – μία παγκόσμια πρωτοτυπία τότε – μετά από σχόλιο πελάτη μας), (β) βελτιώσεις στον τρόπο λειτουργίας (έχουμε συνδεθεί διαδικτυακά με 2.500 φανοποιεία σ’ όλη την Ελλάδα για να μειώσουμε το χρόνο διευθέτησης μιας επισκευής – πάλι έπειτα από παρότρυνση πελάτη μας), και (γ) βελτιώσεις στα μοντέλα μηχανικής μάθησης που χρησιμοποιούμε (όπου αλλάζουμε τις μεταβλητές παραμέτρους καθημερινά, με βάση feedback που λαμβάνουμε από πελάτες μας, ακόμα κι από όσους επέλεξαν να μην ασφαλιστούν σε εμάς).

Το unbiased AI θα συνεχίσει να απασχολεί φορείς, επιχειρήσεις, οργανισμούς και κυβερνήσεις. Το \εξηγήσιμο AI είναι τόσο σημαντικό, ώστε ένα τεράστιο ποσοστό των επιχειρήσεων δηλώνουν ως κρίσιμη την ικανότητά τους να μπορούν να εξηγούν πώς κατέληξαν σε μια απόφαση.
Σημείο εκκίνησης η θέσπιση βασικών αρχών
Την καίρια άποψη μιας εταιρίας τεχνολογίας, με σημαντική εμπειρία και σπουδαίες επιδόσεις στις εφαρμογές Τεχνητής Νοημοσύνης μεταφέρει, απαντώντας στα ερωτήματά μας, ο Άγγελος Βλαχόπουλος, Διευθυντής Πωλήσεων του τομέα Λογισμικού στην ΙΒΜ Ελλάδας & Κύπρου, τονίζοντας ότι προβληματισμός και ανησυχίες βεβαίως υπάρχουν. Όμως, η θέσπιση βασικών αρχών (η ΙΒΜ έχει το δικό της «Ευαγγέλιο», για τη χρήση της Τεχνητής Νοημοσύνης) μπορεί να συμβάλει στην αποκατάσταση κλίματος εμπιστοσύνης.
Ποια είναι η φιλοσοφία της ΙΒΜ, όσον αφορά στη σχέση ανθρώπου – μηχανής, με δεδομένη την ταχύτατη εισβολή της Τεχνητής Νοημοσύνης στην καθημερινότητά μας;
Όπως ισχύει με κάθε ανατρεπτική τεχνολογία, η Τεχνητή Νοημοσύνη μπορεί να μεταμορφώσει τη σύγχρονη εποχή και να βοηθήσει την κοινωνία και την οικονομία να φτάσουν σε νέα ύψη, κάνοντάς μας πιο υγιείς, ευημερούντες και βιώσιμους. Καθώς αναμένονται οι τεράστιες δυνατότητες της Τεχνητής Νοημοσύνης, υπάρχουν ερωτήματα και ανησυχίες, πολλά από τα οποία θα χρειαστούν περισσότερο χρόνο, έρευνα και ανταλλαγή απόψεων για να απαντηθούν – καθώς η κοινωνία θα πρέπει να εμπιστευτεί την Τεχνητή Νοημοσύνη για να την αξιοποιήσει.
Πιστεύουμε ότι η θέσπιση βασικών αρχών είναι το σημείο εκκίνησης για την οικοδόμηση της Τεχνητής Νοημοσύνης, περισσότερο δίκαιης, υπεύθυνης και χωρίς αποκλεισμούς.
Η ΙΒΜ έχει ιδιαίτερα καλές επιδόσεις στον τραπεζοασφαλιστικό κλάδο, άρα διαθέτει πλούσιο feedback από το σύνολο σχεδόν της ελληνικής και διεθνούς αγοράς. Τι προβλήματα έχει αποκαλύψει αυτή η ανάδραση, σχετικά με τη χρήση του ΑΙ, και πώς τα αντιμετωπίσατε εσείς και οι συνεργάτες σας;
Οι λύσεις AI της IBM έχουν εφαρμογή στον ελληνικό χώρο, τόσο στην Κεντρική Διοίκηση (πχ. AI chatbot στο υπουργείο Ψηφιακής Διακυβέρνησης, για την αντιμετώπιση των νέων αναγκών που έφερε η πανδημία), όσο και σε πολλούς τομείς του ιδιωτικού τομέα όπως η υγεία, οι μεταφορές, το εμπόριο και ειδικότερα ο ελληνικός τραπεζοασφαλιστικός κλάδος, όπου η ΙΒΜ έχει παραδοσιακά ισχυρή και διαχρονική παρουσία. Η ως τώρα εμπειρία αναδεικνύει έναν από τους πιο σημαντικούς παράγοντες για τη δυνατότητα υλοποίησης και ικανότητα κλιμάκωσης της Τεχνητής Νοημοσύνης κι αυτός είναι η θέσπιση επαναλαμβανόμενων και αξιόπιστων διαδικασιών. Συγκεκριμένα,
- Εμπιστοσύνη στα δεδομένα: επικέντρωση στη διακυβέρνηση δεδομένων και στην πηγή τους.
- Εμπιστοσύνη στα μοντέλα Τεχνητής Νοημοσύνης: διασφάλιση επαρκούς διαχείρισης κινδύνου των μοντέλων ώστε να επιτευχθεί η βέλτιστη συνεργασία ευφυών εκθετικών τεχνολογιών και ανθρώπων, και τέλος,
- Εμπιστοσύνη σε διαδικασίες και επιχειρηματικά μοντέλα: αύξηση της παραγωγικότητας με την ενσωμάτωση μιας αξιόπιστης πλατφόρμας Τεχνητής Νοημοσύνης.
Επιπλέον, η IBM έχει θεσπίσει μια σειρά αρχών που διέπουν τη χρήση της Τεχνητής Νοημοσύνης:
(α) Σκοπός της είναι η επαύξηση κι όχι η αντικατάσταση της Ανθρώπινης Νοημοσύνης, Κρίσης και Διαίσθησης,
(β) Διαφάνεια στις πηγές που τροφοδοτούν και εκπαιδεύουν τέτοιες λύσεις, στην εξαγωγή των συμπερασμάτων, αλλά και στην πνευματική ιδιοκτησία των πελατών μας, κατά την χρήση του IBM AI, και τέλος
(γ) Δεξιότητες που θα πρέπει να αναπτύξουν φοιτητές, επαγγελματίες και πολίτες ώστε να αλληλοεπιδράσουν με την Τεχνητή Νοημοσύνη με ασφάλεια και αποτελεσματικότητα. Μάλιστα, πρόσφατα, η IBM ανακοίνωσε τη δέσμευσή της να συνεισφέρει στην εκπαίδευση 30 εκατομμυρίων ανθρώπων όλων των ηλικιών ως το 2030, με τις νέες δεξιότητες που απαιτούνται για να στελεχώσουν την αγορά εργασίας όπως πλέον διαμορφώνεται, συμπεριλαμβανομένου, βεβαίως, του τομέα της Τεχνητής Νοημοσύνης.
Έχοντας στη διάθεσή σας την «προίκα» του Watson και το πλήθος των προηγμένων λύσεων, μπορείτε να διασφαλίσετε τη μείωση ή ακόμα και την παντελή απουσία bias στη διαχείριση των project τα οποία καλούνται να φέρουν εις πέρας, στην εποχή του Ψηφιακού Μετασχηματισμού των πάντων; Κι αν ναι, με ποιόν τρόπο;
Πράγματι, η αμερόληπτη Τεχνητή Νοημοσύνη (unbiased AI) είναι ένα θέμα που απασχολεί και θα συνεχίσει να απασχολεί φορείς, επιχειρήσεις, οργανισμούς και κυβερνήσεις. Το αξιόπιστο και εξηγήσιμο AI είναι τόσο σημαντικό, ώστε ένα τεράστιο ποσοστό, της τάξης του 91%, των επιχειρήσεων που χρησιμοποιούν Τεχνητή Νοημοσύνη, δηλώνουν ως κρίσιμη την ικανότητά τους να μπορούν να εξηγούν πώς κατέληξαν σε μια απόφαση, αξιοποιώντας το AI.
Οι μισές από αυτές δηλώνουν πως υπάρχουν εμπόδια που οφείλονται κυρίως σε έλλειψη ικανοτήτων, ευέλικτων εργαλείων, biased data κ.α.
Όσο οι οργανισμοί υλοποιούν τον ψηφιακό μετασχηματισμό τους – ειδικά τώρα, στη μετά πανδημία εποχή- τόσο θα αυξάνουν οι επενδύσεις στο AI. Η ΙΒΜ εστιάζει σε τρεις σημαντικούς πυλώνες: την αυτοματοποίηση του ΙΤ και των διαδικασιών, την οικοδόμηση εμπιστοσύνης στα αποτελέσματα που παράγει η Τεχνητή Νοημοσύνη και στην κατανόηση των νέων αναγκών των επιχειρήσεων.
Οι επενδύσεις θα επιταχύνονται, όσο οι πελάτες μας αναζητούν νέους, καινοτόμους τρόπους να οδηγήσουν τον Ψηφιακό Μετασχηματισμό τους με όχημα το Hybrid Cloud και το AI.
Βλέπετε να αυξάνει η εμπλοκή της Τεχνητής Νοημοσύνης στον τραπεζοασφαλιστικό κλάδο; Θεωρείτε ότι χρειάζονται έλεγχοι / βελτιώσεις / ενημερώσεις της αρχικής λύσης; Πόσο συχνά πρέπει να συμβαίνει αυτό και ποιος αναλαμβάνει την υλοποίηση;
Παρόλο που σύμφωνα με το ετήσιο IBM Global AI Adoption Index, η χρήση του AI ήταν σταθερή το 2020, ένας στους τρεις επαγγελματίες IT δηλώνουν ότι η επιχείρησή τους σκοπεύει να επενδύσει σε δεξιότητες και λύσεις που αφορούν στην Τεχνητή Νοημοσύνη τους επόμενους 12 μήνες.
Έλεγχοι, βελτιώσεις και ενημερώσεις είναι συνεχείς και εντατικοποιούνται. Το IBM Watson για επιχειρήσεις εξελίχθηκε σε μια δεκαετία από ερευνητικό και πειραματικό σε πλατφόρμα «enterprise» που λειτουργεί οπουδήποτε, σε Red Hat OpenShift, και ενσωματώνει δεδομένα διάσπαρτα σε περιβάλλοντα hybrid cloud.
Η εξέλιξη είναι συνεχής, μέσω της στόχευσης του Watson AI στην καινοτομία κρίσιμων τομέων, όπως η αυτοματοποίηση, η αναγνώριση φυσικής γλώσσας και το αξιόπιστο AI, αλλά και της ανάπτυξης ανοιχτού οικοσυστήματος συνεργατών.
Οι λύσεις συνεχίζουν να βελτιώνονται και να πλαισιώνονται αφού, μόνο τους τελευταίους μήνες, η IBM επένδυσε στον τομέα Έρευνας (IBM Research), μέσω εξαγορών, όπως συνέβη με τις Turbonomic, Instana, MyInvenio και WDG RPA Automation, αλλά και στρατηγικών συνεργασιών, όπως αυτές με τις εταιρίες Palantir και ServiceNow.

Οι τραπεζο-ασφαλιστικοί οργανισμοί οφείλουν να αξιοποιούν εξειδικευμένο προσωπικό για τη διασφάλιση της ορθής λειτουργίας και υπεύθυνης χρήσης των τεχνολογικών συστημάτων, καθώς και για την εφαρμογή δικλίδων ασφαλείας για την ενίσχυση της προστασίας των δεδομένων.
Βούληση για τήρηση τεχνο-ηθικής στάσης στην ΕΕ
Τις μεροληψίες και προκαταλήψεις, μαζί με την έλλειψη διαφάνειας, όσον αφορά στη λήψη αποφάσεων από τους αλγορίθμους στη λογική του «μαύρου κουτιού» και τις πιθανές παραβιάσεις της ιδιωτικότητας και των προσωπικών δεδομένων, αναγνωρίζει ως μείζονα ρίσκα και προβλήματα κατά την ολοένα εντονότερη χρήση της Τεχνητής Νοημοσύνης στον τραπεζοασφαλιστικό τομέα, ο αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής και ερευνητής στο Εθνικό Κέντρο Κοινωνικών Ερευνών, Χαράλαμπος Τσέκερης, που επίσης απάντησε στα ερωτήματα του Digital Finance, υπογραμμίζοντας την κοινή βούληση στην ΕΕ για τήρηση τεχνο-ηθικής στάσης.
Η εξατομίκευση των συναλλαγών στον τραπεζοασφαλιστικό τομέα με αξιοποίηση των δυνατοτήτων της Τεχνητής Νοημοσύνης τι κινδύνους κρύβει από πλευράς bias και προστασίας των θεμελιωδών δικαιωμάτων του καταναλωτή;
Στο πλαίσιο της τεχνοηθικής και της ψηφιακής δεοντολογίας, μείζον πρόβλημα της Τεχνητής Νοημοσύνης στον τραπεζοασφαλιστικό τομέα είναι η έλλειψη διαφάνειας και εξηγησιμότητας ή ερμηνευσιμότητας των «έξυπνων» αλγορίθμων της, η μη πρόσβαση στο πώς ένα σύνολο δεδομένων κατέληξε να πάρει συγκεκριμένες αποφάσεις.
Πέρα από το πρόβλημα του «μαύρου κουτιού», τα ηθικά ρίσκα αφορούν, επίσης, στις κάθε είδους μεροληψίες (biases) και προκαταλήψεις που μπορεί να εμφωλεύονται στις αποφάσεις αυτές, οδηγώντας σιωπηλά σε αναπαραγωγή στερεοτύπων και ενίσχυση διακρίσεων και ανισοτήτων (που, πιθανώς, θα επιβαρύνουν και μελλοντικές γενιές).
Εκτός από τις αλγοριθμικές αδικίες, αυτό που μας απασχολεί ιδιαίτερα είναι η δυναμική της παραβίασης της ιδιωτικότητας και των προσωπικών δεδομένων, των οποίων η προστασία και ορθή χρήση αποτελούν επιτακτική ηθική ανάγκη.
Πώς μπορούμε να μειώσουμε, αν όχι να εξαλείψουμε αυτούς τους κινδύνους;
Η μείωση ή εξάλειψη των παραπάνω κινδύνων προϋποθέτει ότι η αξιοποίηση της Τεχνητής Νοημοσύνης θα υπακούει σε κανόνες ηθικής και αρχές δεοντολογίας. Ολοένα και περισσότερο κερδίζει έδαφος η οργανωσιακή στρατηγική του εξαρχής ηθικού σχεδιασμού των συστημάτων, η λεγόμενη «ηθική-εκ-βάθρων» (ethics-by-design), και η διατήρηση μιας ανθρωποκεντρικής προσέγγισης.
Εξίσου σημαντική είναι και η στρατηγική της εκπαίδευσης των στελεχών σε ζητήματα τεχνοηθικής, ψηφιακής δεοντολογίας και ψηφιακής νοημοσύνης, με μελλοντοστραφή οπτική. Επιπλέον, οι τραπεζοασφαλιστικοί οργανισμοί οφείλουν να αξιοποιούν εξειδικευμένο προσωπικό για τη διασφάλιση της ορθής λειτουργίας και υπεύθυνης χρήσης των τεχνολογικών συστημάτων, καθώς και για την εφαρμογή δικλίδων ασφαλείας για την ενίσχυση της προστασίας των δεδομένων.
Υπάρχει ομοφωνία ως προς την αντιμετώπισή τους, ας πούμε εντός των κόλπων της ΕΕ;
Γενικά, η ηθική αποτελεί πεδίο αντιπαράθεσης. Ωστόσο, εντός των κόλπων της ΕΕ, η βούληση για την τήρηση μιας τεχνοηθικής στάσης είναι κοινή. Αν και η υιοθέτηση του ΑΙ στον ευρωπαϊκό τραπεζοασφαλιστικό τομέα βρίσκεται σε σχετικά πρώιμο στάδιο, υφίσταται ήδη λεπτομερές ρυθμιστικό πλαίσιο (βλ, πχ, Markets in Financial Instruments Directive) που αποτελεί σημείο αναφοράς για μια δεοντολογική προσέγγιση.
Σημειωτέον ότι η χρήση ΑΙ για την πιστοληπτική αξιολόγηση φυσικών προσώπων χαρακτηρίζεται ως «εφαρμογή υψηλού ρίσκου» στο Σχέδιο Κανονισμού για την Τεχνητή Νοημοσύνη. Στην ίδια κατεύθυνση κινείται και η πρόταση για την εγκαθίδρυση Ευρωπαϊκού Χώρου Χρηματοοικονομικών Δεδομένων.
Στην άλλη πλευρά του Ατλαντικού, όπως αναφέρει το Brookings Institution, οι ΗΠΑ δεν διαθέτουν ακόμα επαρκείς νομικές και ρυθμιστικές δομές προστασίας απέναντι σε μεροληπτικές και άδικες συμπεριφορές συστημάτων Τεχνητής Νοημοσύνης στον τραπεζοασφαλιστικό τομέα.
Ωστόσο, αναμένονται σχετικές θεσμικές πρωτοβουλίες, καθώς τέτοιου είδους συζητήσεις έχουν ήδη έρθει στο προσκήνιο και συμπεριλαμβάνονταν στο προεκλογικό πρόγραμμα του προέδρου Μπάιντεν.
Ποιος θα ελέγξει την εφαρμογή των (επικαιροποιημένων, αν και όταν υπάρξουν) κανόνων, από το μέγα πλήθος των επιχειρήσεων και των οργανισμών, που αξιοποιούν τέτοιες λύσεις;
Σε γενικές γραμμές, ένας τέτοιος έλεγχος μπορεί να υλοποιηθεί ακολουθώντας είτε μια προσέγγιση αυτορρύθμισης (που επιτρέπει στους ίδιους τους οργανισμούς να ορίζουν και να επιβλέπουν τους σχετικούς κανόνες), είτε μια προσέγγιση κανονιστικής ρύθμισης και συμμόρφωσης μέσω ανεξάρτητων αρχών, ενώ ενδιάμεση κατάσταση αποτελούν τα μοντέλα της συρρύθμισης (co-regulation).
Θα πρέπει, ωστόσο, να έχουμε υπόψιν ότι οι λύσεις που δίνονται από την τεχνολογία στον τραπεζοασφαλιστικό τομέα και όχι μόνο είναι -και θα συνεχίσουν να είναι- πάντοτε ατελείς και μαχητές.
Η ανθρώπινη επαγρύπνηση και εποπτεία οφείλουν να είναι διαρκώς «εκεί», ώστε να διασφαλίζεται η πρακτική εφαρμογή των ηθικών κανόνων και δεοντολογικών αρχών.
Εν Ολίγοις
Μπορεί η Ευρώπη (άλλη μια φορά «μπροστάρης») να επιμένει στην τήρηση μιας τεχνο-ηθικής στάσης, όσον αφορά στη χρήση της Τεχνητής Νοημοσύνης, όμως τα προβλήματα εφαρμογής (στον τραπεζοασφαλιστικό κλάδο, στην περίπτωσή μας) παραμένουν, ιδιαίτερα αν οι εταιρίες και οργανισμοί που εξ ανάγκης την αξιοποιούν, δεν εφαρμόζουν κάποιο εσωτερικό πρωτόκολλο ή κώδικα βασικών αρχών, με κατάλληλες δικλίδες σε θέματα διαφάνειας και πάγιο ζητούμενο μια δίκαιη, υπεύθυνη και χωρίς αποκλεισμούς χρήση.