Skip to main content
main content, press tab to continue
Artykuł

Sztuczna inteligencja (AI): nowym ESG?

maj 15, 2024

Kluczowe kwestie dla zarządzających aktywami prywatnymi oraz ich ubezpieczeniami odpowiedzialności finansowej i wykonawczej
Financial, Executive and Professional Risks (FINEX)|ESG and Sustainability
N/A

Zwolennicy, przeciwnicy i wszyscy pomiędzy zdawali się mówić o ESG w niekończącej się pętli. Tak było z pewnością w przypadku branży finansowej i ubezpieczeń odpowiedzialności cywilnej kadry kierowniczej.

Wygląda na to, że teraz przyszła kolej na sztuczną inteligencję. Obnosząc się ze swoją wydajnością, sztuczna inteligencja zredukowała obecny gorący temat z trzech liter do dwóch (AI), praktycznie przewyższając ESG jako najczęściej poruszany temat w branży ubezpieczeniowej. Jeśli uczestniczyłeś w konferencji ubezpieczeniowej, przeglądałeś aktualności lub przewijałeś LinkedIn, prawdopodobnie natknąłeś się na treści związane ze sztuczną inteligencją.

Tak czy inaczej, istnieje dobry powód, aby ten temat znalazł się w czołówce dyskusji na temat ubezpieczeń. Korzyści płynące ze sztucznej inteligencji, zwłaszcza generatywnej, są pozornie nieograniczone, ale związane z nią zagrożenia są złożone i ewoluują, a ich wpływu na profil ryzyka organizacji nie można lekceważyć. Jako mechanizm transferu ryzyka, ubezpieczenie powinno zostać włączone do dyskusji na temat sztucznej inteligencji, aby określić, jaki wpływ, jeśli w ogóle, może mieć to ryzyko na portfel ubezpieczeniowy organizacji.

Poniższy komentarz analizuje sztuczną inteligencję przez pryzmat ubezpieczeń, w szczególności podkreślając kluczowe kwestie, które prywatni zarządzający aktywami powinni wziąć pod uwagę podczas przeglądu swoich programów ubezpieczeń finansowych i od odpowiedzialności cywilnej kadry kierowniczej.

Sztuczna inteligencja i branża zarządzania aktywami

Sądząc po ostatnim szumie informacyjnym, można by pomyśleć, że sztuczna inteligencja została wynaleziona w zeszłym tygodniu. Jednak systemy transakcyjne, robo-doradcy, kwestie prawne i zgodność z przepisami, badania i analizy, marketing i obsługa klienta to tylko kilka obszarów, w których sztuczna inteligencja została już w różnym stopniu włączona do branży zarządzania aktywami. To, co się zmieniło i co będzie nadal ewoluować, to zaawansowanie i wyrafinowanie tej technologii oraz jej szersze rozprzestrzenianie się we wszystkich branżach, w tym w zarządzaniu aktywami.

Zmieniający się krajobraz regulacyjny

W Stanach Zjednoczonych w ciągu ostatniego roku zauważalnie wzrosło zainteresowanie regulacjami. Na przykład w lipcu 2023 r. SEC opublikowała propozycję dotyczącą konfliktów interesów, w przypadku których analizy, w tym sztuczna inteligencja, są wykorzystywane do prognozowania inwestycji. Następnie w grudniu 2023 r. Wall Street Journal poinformował, że SEC przeprowadza kontrole doradców, poszukując informacji na temat marketingu, modeli algorytmicznych, szkoleń, zgodności i nadzoru. Ponadto Biały Dom wydał rozporządzenie wykonawcze określające najlepsze praktyki w zakresie sztucznej inteligencji, podczas gdy niektóre stany USA i kraje europejskie uchwaliły i/lub zaproponowały przepisy lub ramy regulacyjne koncentrujące się na tych zagrożeniach. W miarę dalszego rozwoju sztucznej inteligencji organy regulacyjne prawdopodobnie podejmą dodatkowe kroki w celu ochrony inwestorów, zwłaszcza tych na poziomie detalicznym.

Wygląda na to, że Wielka Brytania i Unia Europejska przyjmą różne podejścia do nadzoru regulacyjnego nad sztuczną inteligencją. Parlament Europejski zatwierdził niedawno unijną ustawę o sztucznej inteligencji, która ma na celu wprowadzenie kompleksowych ram regulacyjnych dotyczących wykorzystania sztucznej inteligencji, które będą oceniać ryzyko związane z platformami sztucznej inteligencji, nakładając surowe wymogi na te uznane za obarczone wyższym ryzykiem. Firmy będą generalnie zobowiązane do przestrzegania wyższych standardów zarządzania danymi i zarządzania ryzykiem, ponieważ UE chce ustanowić standard dla przyszłych regulacji dotyczących sztucznej inteligencji.

Rząd Wielkiej Brytanii opowiedział się jednak za mniej nakazowym, opartym na wynikach podejściem, które opiera się na pięciu podstawowych zasadach: bezpieczeństwie; bezpieczeństwie i solidności; odpowiedniej przejrzystości i wyjaśnialności; uczciwości; odpowiedzialności i zarządzaniu; oraz kontestowalności i zadośćuczynieniu. Ich celem jest znalezienie równowagi między nadzorem regulacyjnym a promowaniem innowacji, jednak zarządzający aktywami nadal będą musieli dostosować swoje ramy zarządzania, aby uwzględnić niuanse sztucznej inteligencji i technologii uczenia maszynowego, zwłaszcza w odniesieniu do indywidualnej odpowiedzialności w ramach systemu Senior Manager and Certification Regime (SMCR).

AI washing

Biorąc pod uwagę całą tę uwagę, nie było dużym zaskoczeniem, gdy SEC ogłosiła w marcu 2024 r., że wniosła zarzuty przeciwko dwóm doradcom zarzucającym kilka naruszeń związanych z AI, w tym "AI washing". To ostatnie użycie "washing" ogólnie odnosi się do rzekomych fałszywych i/lub wprowadzających w błąd oświadczeń dotyczących wykorzystania i wartości sztucznej inteligencji w procesie zarządzania inwestycjami. Chociaż kary w wysokości 400 000 USD nałożone na doradców mogą wydawać się stosunkowo łagodne, działania SEC w tej sprawie zapewniły użyteczny wgląd w to, jak organy regulacyjne mogą szerzej podejść do tej kwestii w przyszłości i co doradcy powinni rozważyć przed promowaniem korzystania z AI.

Ryzyko związane z zarządzaniem aktywami

Choć korzyści płynące ze sztucznej inteligencji są oczywiste, istnieje wiele zagrożeń, które należy wziąć pod uwagę. Chociaż z pewnością będą one ewoluować, przykłady zagrożeń związanych ze sztuczną inteligencją mających zastosowanie do zarządzających aktywami obejmują, ale nie ograniczają się do następujących:

  • Dokładność danych: Nieprawidłowe dane wejściowe AI prowadzące do błędnych wyników mogą skutkować złymi decyzjami inwestycyjnymi i stratami. Takie straty mogą prowadzić do roszczeń inwestorów i roszczeń regulacyjnych w ramach polis ubezpieczeniowych dotyczących zarządzania i odpowiedzialności zawodowej, zarzucających brak odpowiedniego nadzoru ze strony dyrektorów i członków zarządu, a także błędy i zaniechania w wykonywaniu lub niewykonaniu usług zarządzania inwestycjami.
  • Zwolnienia z pracy: Wydajność siły roboczej może prowadzić do redukcji zatrudnienia, co w przypadku nieproporcjonalnego wpływu na niektóre grupy pracowników może powodować roszczenia dyskryminacyjne w ramach polis ubezpieczeniowych od odpowiedzialności za praktyki związane z zatrudnieniem (EPL).
  • Nieobiektywne dane: Stronniczość i dyskryminacja to obecnie największe zagrożenia. Nieobiektywne dane wyjściowe wynikające z nieobiektywnych danych wejściowych (niezamierzonych lub innych) mogą prowadzić do działań dyskryminacyjnych, na przykład gdy narzędzia rekrutacyjne oparte na sztucznej inteligencji nieumyślnie odrzucają kandydatów do pracy w określonym wieku, co może wywołać roszczenia EPL.
  • Działania regulacyjne: Nowe lub zmodyfikowane ramy regulacyjne zwiększają ryzyko formalnych i nieformalnych dochodzeń regulacyjnych, działań egzekucyjnych i sporów sądowych, potencjalnie uruchamiając ochronę w ramach polis odpowiedzialności cywilnej z tytułu zarządzania i odpowiedzialności zawodowej.
  • Cyberbezpieczeństwo: Niewłaściwe wykorzystanie narzędzi sztucznej inteligencji do przeprowadzania oszukańczych ataków i narażania danych na szwank rodzi szereg obaw, które mogą prowadzić do roszczeń w ramach polityki cyberbezpieczeństwa i/lub przestępczości.
  • Awaria aplikacji: Niepowodzenie aplikacji AI w działaniu zgodnie z przeznaczeniem może wygenerować roszczenie uruchamiające wszelkie obowiązujące ubezpieczenia od odpowiedzialności cywilnej za technologię lub media.
  • Realizacja transakcji: Błędne transakcje dokonane za pośrednictwem systemów transakcyjnych wspieranych przez sztuczną inteligencję mogą skutkować szkodami dla inwestorów, potencjalnie prowadząc do roszczeń w ramach sekcji "koszt korekt" polisy odpowiedzialności zawodowej zarządzających aktywami.
  • Plany świadczeń: Jeśli fundusze, które są uwzględnione jako opcje inwestycyjne w sponsorowanych planach świadczeń, poniosą straty związane ze sztuczną inteligencją, sponsorzy planów i ich powiernicy mogą być celem roszczeń dotyczących naruszenia obowiązków powierniczych, co może uruchomić ochronę w ramach programu ubezpieczeniowego odpowiedzialności powierniczej sponsora (znanego również jako odpowiedzialność powiernicza emerytalna).
  • Własność intelektualna: Tworząc własne modele sztucznej inteligencji, algorytmy i inne wartości niematerialne i prawne przy użyciu danych 1. lub 3. strony, zarządzający aktywami muszą zapewnić dokładny proces weryfikacji, aby zmniejszyć ryzyko przywłaszczenia tajemnicy handlowej i naruszenia praw autorskich. Postępowania sądowe w tym obszarze szybko ewoluują, a pokrycie takich roszczeń jest zwykle poszukiwane w ramach programu ubezpieczenia od odpowiedzialności za własność intelektualną.

Podobnie jak w przypadku wszystkich scenariuszy, zastosowanie wspomnianych programów ubezpieczeniowych będzie zależeć od specyfiki konkretnego roszczenia i języka zawartego w rzeczywistych polisach ubezpieczeniowych.

Kluczowe kwestie związane z odnowieniem ubezpieczenia

Aby pozostać konkurencyjnym, oczekuje się, że zarządzający aktywami będą nadal włączać sztuczną inteligencję do swoich operacji.

Podczas gdy każdy ubezpieczyciel będzie miał swoją własną perspektywę, a profil ryzyka każdego ubezpieczonego jest unikalny, zarządzający aktywami powinni być przygotowani na pytania związane ze sztuczną inteligencją w ramach odnawiania ubezpieczenia odpowiedzialności finansowej i wykonawczej. Obszary zainteresowania mogą obejmować między innymi następujące kwestie:

  • Ogólne zrozumienie potencjalnych zagrożeń związanych ze sztuczną inteligencją;
  • Rodzaje sztucznej inteligencji obecnie używane i/lub oczekiwane w najbliższej przyszłości;
  • Poświadczenia osób nadzorujących i monitorujących wykorzystanie sztucznej inteligencji;
  • Kontrole monitorujące i weryfikujące wykorzystanie i/lub wyniki sztucznej inteligencji;
  • Zakres, w jakim prowadzone są szkolenia z zakresu sztucznej inteligencji dla pracowników;
  • Proces weryfikacji publicznych oświadczeń na temat korzyści płynących ze sztucznej inteligencji dla inwestorów;
  • Czy i kiedy sztuczna inteligencja może zastąpić role pełnione obecnie przez pracowników;
  • Proces oceny zmieniającego się ryzyka stron trzecich ze strony dostawców sztucznej inteligencji i innych stron trzecich;
  • Zakres odszkodowania otrzymanego od dostawców AI i innych odpowiednich stron;
  • Zakres odszkodowań udzielanych klientom;
  • Zmiany w cyberbezpieczeństwie lub w innych ramach ograniczania ryzyka w odpowiedzi na sztuczną inteligencję.

Wnioski

Możliwości i korzyści płynące ze sztucznej inteligencji są rozległe, ale niezwykle ważne jest, aby firmy uważnie obserwowały ryzyko oraz zmieniające się otoczenie regulacyjne i prawne mające zastosowanie do sztucznej inteligencji. Podczas procesu gwarantowania odnowienia ważne jest, aby zarządzający aktywami wykazali się zrozumieniem ryzyka związanego ze sztuczną inteligencją i tego, jak mogą one wpłynąć zarówno na ich firmę, jak i klientów. Co ważniejsze, kluczowe znaczenie ma jasne zakomunikowanie zasad i procedur stosowanych w celu ograniczenia tego ryzyka. W ten sposób zarządzający aktywami prawdopodobnie osiągną korzystniejszy wynik, gdy ich programy ubezpieczeniowe zostaną odnowione.

Contact us