Zwolennicy, przeciwnicy i wszyscy pomiędzy zdawali się mówić o ESG w niekończącej się pętli. Tak było z pewnością w przypadku branży finansowej i ubezpieczeń odpowiedzialności cywilnej kadry kierowniczej.
Wygląda na to, że teraz przyszła kolej na sztuczną inteligencję. Obnosząc się ze swoją wydajnością, sztuczna inteligencja zredukowała obecny gorący temat z trzech liter do dwóch (AI), praktycznie przewyższając ESG jako najczęściej poruszany temat w branży ubezpieczeniowej. Jeśli uczestniczyłeś w konferencji ubezpieczeniowej, przeglądałeś aktualności lub przewijałeś LinkedIn, prawdopodobnie natknąłeś się na treści związane ze sztuczną inteligencją.
Tak czy inaczej, istnieje dobry powód, aby ten temat znalazł się w czołówce dyskusji na temat ubezpieczeń. Korzyści płynące ze sztucznej inteligencji, zwłaszcza generatywnej, są pozornie nieograniczone, ale związane z nią zagrożenia są złożone i ewoluują, a ich wpływu na profil ryzyka organizacji nie można lekceważyć. Jako mechanizm transferu ryzyka, ubezpieczenie powinno zostać włączone do dyskusji na temat sztucznej inteligencji, aby określić, jaki wpływ, jeśli w ogóle, może mieć to ryzyko na portfel ubezpieczeniowy organizacji.
Poniższy komentarz analizuje sztuczną inteligencję przez pryzmat ubezpieczeń, w szczególności podkreślając kluczowe kwestie, które prywatni zarządzający aktywami powinni wziąć pod uwagę podczas przeglądu swoich programów ubezpieczeń finansowych i od odpowiedzialności cywilnej kadry kierowniczej.
Sądząc po ostatnim szumie informacyjnym, można by pomyśleć, że sztuczna inteligencja została wynaleziona w zeszłym tygodniu. Jednak systemy transakcyjne, robo-doradcy, kwestie prawne i zgodność z przepisami, badania i analizy, marketing i obsługa klienta to tylko kilka obszarów, w których sztuczna inteligencja została już w różnym stopniu włączona do branży zarządzania aktywami. To, co się zmieniło i co będzie nadal ewoluować, to zaawansowanie i wyrafinowanie tej technologii oraz jej szersze rozprzestrzenianie się we wszystkich branżach, w tym w zarządzaniu aktywami.
W Stanach Zjednoczonych w ciągu ostatniego roku zauważalnie wzrosło zainteresowanie regulacjami. Na przykład w lipcu 2023 r. SEC opublikowała propozycję dotyczącą konfliktów interesów, w przypadku których analizy, w tym sztuczna inteligencja, są wykorzystywane do prognozowania inwestycji. Następnie w grudniu 2023 r. Wall Street Journal poinformował, że SEC przeprowadza kontrole doradców, poszukując informacji na temat marketingu, modeli algorytmicznych, szkoleń, zgodności i nadzoru. Ponadto Biały Dom wydał rozporządzenie wykonawcze określające najlepsze praktyki w zakresie sztucznej inteligencji, podczas gdy niektóre stany USA i kraje europejskie uchwaliły i/lub zaproponowały przepisy lub ramy regulacyjne koncentrujące się na tych zagrożeniach. W miarę dalszego rozwoju sztucznej inteligencji organy regulacyjne prawdopodobnie podejmą dodatkowe kroki w celu ochrony inwestorów, zwłaszcza tych na poziomie detalicznym.
Wygląda na to, że Wielka Brytania i Unia Europejska przyjmą różne podejścia do nadzoru regulacyjnego nad sztuczną inteligencją. Parlament Europejski zatwierdził niedawno unijną ustawę o sztucznej inteligencji, która ma na celu wprowadzenie kompleksowych ram regulacyjnych dotyczących wykorzystania sztucznej inteligencji, które będą oceniać ryzyko związane z platformami sztucznej inteligencji, nakładając surowe wymogi na te uznane za obarczone wyższym ryzykiem. Firmy będą generalnie zobowiązane do przestrzegania wyższych standardów zarządzania danymi i zarządzania ryzykiem, ponieważ UE chce ustanowić standard dla przyszłych regulacji dotyczących sztucznej inteligencji.
Rząd Wielkiej Brytanii opowiedział się jednak za mniej nakazowym, opartym na wynikach podejściem, które opiera się na pięciu podstawowych zasadach: bezpieczeństwie; bezpieczeństwie i solidności; odpowiedniej przejrzystości i wyjaśnialności; uczciwości; odpowiedzialności i zarządzaniu; oraz kontestowalności i zadośćuczynieniu. Ich celem jest znalezienie równowagi między nadzorem regulacyjnym a promowaniem innowacji, jednak zarządzający aktywami nadal będą musieli dostosować swoje ramy zarządzania, aby uwzględnić niuanse sztucznej inteligencji i technologii uczenia maszynowego, zwłaszcza w odniesieniu do indywidualnej odpowiedzialności w ramach systemu Senior Manager and Certification Regime (SMCR).
Biorąc pod uwagę całą tę uwagę, nie było dużym zaskoczeniem, gdy SEC ogłosiła w marcu 2024 r., że wniosła zarzuty przeciwko dwóm doradcom zarzucającym kilka naruszeń związanych z AI, w tym "AI washing". To ostatnie użycie "washing" ogólnie odnosi się do rzekomych fałszywych i/lub wprowadzających w błąd oświadczeń dotyczących wykorzystania i wartości sztucznej inteligencji w procesie zarządzania inwestycjami. Chociaż kary w wysokości 400 000 USD nałożone na doradców mogą wydawać się stosunkowo łagodne, działania SEC w tej sprawie zapewniły użyteczny wgląd w to, jak organy regulacyjne mogą szerzej podejść do tej kwestii w przyszłości i co doradcy powinni rozważyć przed promowaniem korzystania z AI.
Choć korzyści płynące ze sztucznej inteligencji są oczywiste, istnieje wiele zagrożeń, które należy wziąć pod uwagę. Chociaż z pewnością będą one ewoluować, przykłady zagrożeń związanych ze sztuczną inteligencją mających zastosowanie do zarządzających aktywami obejmują, ale nie ograniczają się do następujących:
Podobnie jak w przypadku wszystkich scenariuszy, zastosowanie wspomnianych programów ubezpieczeniowych będzie zależeć od specyfiki konkretnego roszczenia i języka zawartego w rzeczywistych polisach ubezpieczeniowych.
Aby pozostać konkurencyjnym, oczekuje się, że zarządzający aktywami będą nadal włączać sztuczną inteligencję do swoich operacji.
Podczas gdy każdy ubezpieczyciel będzie miał swoją własną perspektywę, a profil ryzyka każdego ubezpieczonego jest unikalny, zarządzający aktywami powinni być przygotowani na pytania związane ze sztuczną inteligencją w ramach odnawiania ubezpieczenia odpowiedzialności finansowej i wykonawczej. Obszary zainteresowania mogą obejmować między innymi następujące kwestie:
Możliwości i korzyści płynące ze sztucznej inteligencji są rozległe, ale niezwykle ważne jest, aby firmy uważnie obserwowały ryzyko oraz zmieniające się otoczenie regulacyjne i prawne mające zastosowanie do sztucznej inteligencji. Podczas procesu gwarantowania odnowienia ważne jest, aby zarządzający aktywami wykazali się zrozumieniem ryzyka związanego ze sztuczną inteligencją i tego, jak mogą one wpłynąć zarówno na ich firmę, jak i klientów. Co ważniejsze, kluczowe znaczenie ma jasne zakomunikowanie zasad i procedur stosowanych w celu ograniczenia tego ryzyka. W ten sposób zarządzający aktywami prawdopodobnie osiągną korzystniejszy wynik, gdy ich programy ubezpieczeniowe zostaną odnowione.