Η διευρυμένη χρήση του ΑΙ σε κάθε τομέα της σύγχρονης ζωής δημιουργεί ένα νέο, απρόβλεπτο, μη μετρήσιμο κίνδυνο που καλούνται να αντιμετωπίσουν οι ασφαλιστικές εταιρείες. Η ασφαλιστική βιομηχανία βρίσκεται μπροστά σε μια νέα εποχή κινδύνων, όπου η παραδοσιακή έννοια της ευθύνης ίσως χρειαστεί να επαναπροσδιοριστεί.
Η ταχεία εξάπλωση της τεχνητής νοημοσύνης στις επιχειρήσεις αρχίζει να προκαλεί έντονο προβληματισμό στην ασφαλιστική αγορά, καθώς αυξάνονται οι φόβοι ότι τα συστήματα AI μπορεί να δημιουργήσουν νέες μορφές νομικής και ασφαλιστικής ευθύνης, με δυνητικά τεράστιο κόστος.
Αφορμή αποτελεί μια δικαστική υπόθεση στις ΗΠΑ, η οποία παρακολουθείται στενά από ασφαλιστές, brokers και νομικούς συμβούλους παγκοσμίως, καθώς ενδέχεται να καθορίσει ποιος θεωρείται υπεύθυνος όταν μια απόφαση λαμβάνεται από αλγόριθμο.
Η υπόθεση αφορά τον Derek Mobley, έναν υποψήφιο εργαζόμενο που υπέβαλε περισσότερες από εκατό αιτήσεις εργασίας μέσω μιας πλατφόρμας εύρεσης εργασίας με την επωνυμία “Workday”, χωρίς όμως καμία απο αυτές να έχει επιτυχία. Για τον λόγο αυτό αποφάσισε στη συνέχεια να καταθέσει αγωγή κατά της πλατφόρμας, υποστηρίζοντας ότι οι αλγόριθμοι του συστήματος “έκαναν διακρίσεις εις βάρος του λόγω ηλικίας”.
Η Workday απάντησε ότι δεν μπορεί να θεωρηθεί υπεύθυνη για αποφάσεις που σχετίζονται με τις προτιμήσεις ή τις επιλογές των επιχειρήσεων που χρησιμοποιούν το λογισμικό της. Ωστόσο, αμερικανικό δικαστήριο αποφάσισε ότι η υπόθεση μπορεί να προχωρήσει, συμπεριλαμβάνοντας και άλλους ενάγοντες που θεωρούν ότι υπήρξαν θύματα διακριτικής μεταχείρισης μέσω του ΑΙ συστήματος της πλατφόρμας.
Η εξέλιξη αυτή έχει προκαλέσει έντονη κινητικότητα στην ασφαλιστική αγορά, καθώς η συζήτηση έχει πλέον ξεπεράσει το ηθικό ερώτημα περί της διαχείρισης βιογραφικών μέσω AI. Το βασικό ερώτημα τώρα, είναι εάν η νομική ευθύνη για αποφάσεις που λαμβάνει ένα σύστημα τεχνητής νοημοσύνης βαραίνει τον δημιουργό του λογισμικού, την επιχείρηση που το χρησιμοποιεί ή και τους δύο!
Το ζήτημα αποκτά ιδιαίτερη σημασία καθώς όλο και περισσότερες εταιρείες μεταφέρουν κρίσιμες επιχειρησιακές λειτουργίες σε συστήματα AI και “AI agents”, δηλαδή αυτόνομους ψηφιακούς βοηθούς που μπορούν να λαμβάνουν αποφάσεις ή να εκτελούν ενέργειες χωρίς άμεση ανθρώπινη παρέμβαση.
Σύμφωνα με νομικούς και ασφαλιστικούς συμβούλους που μίλησαν στους Financial Times, ενδέχεται να χρειαστούν χρόνια μέχρι τα δικαστήρια να ξεκαθαρίσουν το πλαίσιο ευθύνης γύρω από την τεχνητή νοημοσύνη. Για αυτό και κάποιες ασφαλιστικές εταιρείες επιχειρούν ήδη να περιορίσουν την έκθεσή τους.
Ορισμένοι μεγάλοι ασφαλιστικοί όμιλοι, όπως η AIG, έχουν ήδη κινηθεί προς την κατεύθυνση εξαίρεσης ζημιών που σχετίζονται με AI από τα ασφαλιστήρια συμβόλαια εταιρικής ευθύνης. Άλλες εταιρείες συνεχίζουν να παρέχουν κάλυψη, θέτοντας αυστηρούς περιορισμούς καθώς και ανώτατα όρια αποζημιώσεων για κινδύνους που συνδέονται με την τεχνητή νοημοσύνη.
Εκπρόσωπος του τμήματος μεταφοράς κινδύνου AI στην Aon, δήλωσε πρόσφατα ότι η ευρεία χρήση AI θα μπορούσε να δημιουργήσει συστημικό κίνδυνο για την οικονομία, σε βαθμό που ορισμένες ζημιές να θεωρούνται πρακτικά μη ασφαλίσιμες.
Όπως εξηγεί, η βασική δυσκολία είναι ότι ακόμη και οι ίδιοι οι δημιουργοί αυτών των συστημάτων δεν μπορούν να προβλέψουν με απόλυτη ακρίβεια τη συμπεριφορά τους. Αυτό διαφοροποιεί ριζικά την τεχνητή νοημοσύνη από πιο παραδοσιακούς ασφαλιστικούς κινδύνους, όπως οι φυσικές καταστροφές ή οι τρομοκρατικές επιθέσεις, όπου οι παράμετροι του κινδύνου είναι πιο σαφείς και ιστορικά καταγεγραμμένες.
Οι μεγαλύτεροι φόβοι αφορούν κυρίως κρίσιμες υποδομές. Εάν συστήματα AI χρησιμοποιηθούν σε τομείς όπως το ηλεκτρικό δίκτυο, η ύδρευση ή άλλες βασικές υπηρεσίες, ένα σοβαρό σφάλμα ή μια κυβερνοεπίθεση θα μπορούσε να προκαλέσει εκτεταμένες διακοπές λειτουργίας ακόμη και σε επίπεδο πόλης ή χώρας.
Παράλληλα, η ασφαλιστική αγορά εξετάζει ήδη εάν θα δημιουργηθεί μια εντελώς νέα ασφαλιστική κατηγορία αποκλειστικά για κινδύνους AI, όπως συνέβη στο παρελθόν με την κυβερνοασφάλεια.
‘Oλο και περισσότερες ασφαλιστικές αρχίζουν να εφαρμόζουν την ίδια στρατηγική που εφάρμοσαν πριν από δεκαετίες στα cyber risks: πρώτα εξαιρούν τον νέο κίνδυνο από τα παραδοσιακά συμβόλαια και στη συνέχεια δημιουργούν νέα, ξεχωριστά ασφαλιστικά προϊόντα.
Οι κίνδυνοι, ωστόσο, δεν περιορίζονται σε τεχνικά λάθη ή κυβερνοεπιθέσεις. Οι ειδικοί προειδοποιούν ότι η AI μπορεί να δημιουργήσει ευθύνες και σε πιο απρόβλεπτες περιοχές, όπως η ψυχολογική επιρροή στους καταναλωτές ή οι λανθασμένες εμπορικές αποφάσεις.
Χαρακτηριστικό παράδειγμα αποτελεί πρόσφατη δικαστική απόφαση κατά των Meta και Google, σύμφωνα με την οποία οι δύο εταιρείες επέδειξαν αμέλεια “ρίχνοντας” στο κοινό πλατφόρμες social media που αποδείχθηκαν εθιστικές για παιδιά και εφήβους. Οι δύο τεχνολογικοί κολοσσοί δήλωσαν ότι διαφωνούν με την απόφαση.
Σύμφωνα με στελέχη της αγοράς, αντίστοιχες αγωγές στο μέλλον θα μπορούσαν να στραφούν και κατά εταιρειών που χρησιμοποιούν AI για αύξηση πωλήσεων, τραπεζικές υπηρεσίες ή άλλες εμπορικές λειτουργίες, εάν η τεχνολογία οδηγήσει σε παραπλανητικές, επιβλαβείς ή ανεξέλεγκτες συμπεριφορές.
Το μόνο βέβαιο είναι ότι η ασφαλιστική βιομηχανία βρίσκεται μπροστά σε μια νέα εποχή κινδύνων, όπου η παραδοσιακή έννοια της ευθύνης ίσως χρειαστεί να επαναπροσδιοριστεί.

