Zastosowanie sztucznej inteligencji w przedsiębiorstwie
Sztuczna Inteligencja staje się coraz częściej wykorzystywanym narzędziem, które może przyczyniać się do oszczędności i uproszczenia procesów zachodzących w przedsiębiorstwie. Jeśli chodzi o nowe technologie czy wszelkie prawdziwie innowacyjne nowinki w sektorze IT, sztuczna inteligencja pozostaje, kolokwializując, czymś, co w największej mierze rozbudza wyobraźnię. Jednakże jej wykorzystanie w firmie zawsze wiąże się z szeregiem problemów, które będzie musiał podjąć przedsiębiorca.
Istota sztucznej inteligencji
Czy w ogóle jest sztuczna inteligencja? Obrazując temat najprościej, sztuczna inteligencja jest systemem lub maszyną, która zaprogramowana została tak, aby jak najwierniej oddawać mechanizmy składające się na ludzką inteligencję i za ich pomocą wykonywać konkretnie wyznaczone cele. W przedsiębiorstwie sztuczna inteligencja może być wykorzystana między innymi do:
-
Chatbotów: jedna z najbardziej rozpowszechnionych metod wykorzystania prostych algorytmów opartych na sztucznej inteligencji, obecnie stosowane są np. w bankach, urzędach i większych przedsiębiorstwach. Ich działanie polega na prowadzeniu konwersacji w formie pisemnej lub ustnej z klientem w celu sklasyfikowania i rozwiązania problemu od razu.
-
Inteligentni Asystenci: są to programy wykorzystywane przez przedsiębiorców w celu poprawienia organizacji działań wewnątrz firmy. Asystenci tacy mogą zajmować się między innymi sortowaniem zadań. Mają newralgiczne znaczenie dla działania dużych przedsiębiorców.
-
Silniki Rekomendacji: są to inteligentne algorytmy wybierające takie dane, które na podstawie poprzednich doświadczeń mogą wykazać większą użyteczność niż inne – inaczej mówiąc – wyciągają najistotniejsze dane z perspektywy celu w jakim dane te mają zostać wykorzystane. Są szczególnie efektywne w przypadku, gdy przedsiębiorca potrzebuje dostępu do danego rodzaju danych, znajdujących się na różnych nośnikach.
Z podanych przykładów wynika, że sztuczna inteligencja stanowi de facto narzędzie ułatwiające analizę i przetwarzanie danych. Oznacza to, że należy ją zaliczyć do najbardziej wartościowych zasobów przedsiębiorstwa.
Proces tworzenia maszyny opartej na sztucznej inteligencji
Aby odpowiedzieć na pytanie w jaki sposób sztuczna inteligencja może odpowiadać za swoje czyny, należy mieć świadomość w jaki sposób jest ona tworzona. Otóż, aby stworzyć algorytm, który następnie będzie mógł zostać nazwany jako sztuczna inteligencja, musi spełniać szereg kryteriów, ale w uproszczeniu:
-
W pierwszej kolejności Programista musi, w oparciu o odpowiedni język programowania stworzyć algorytm, który sam będzie mógł rozwijać swój własny kod źródłowy.
-
Kolejnym krokiem jest tzw. Machine learning, czyli ręczne wskazywanie i przedstawiania danych oraz programowanie w jaki sposób algorytm ma analizować dane.
-
Ostatnim krokiem jest tzw. Deep learning, czyli proces polegający na wprowadzeniu olbrzymiej ilości danych – tak, aby algorytm na podstawie już posiadanych danych zaczął przetwarzać nowe – zaczął “myśleć”.
Kto powinien odpowiadać za Sztuczna Inteligencję?
Jako potencjalne osoby, w odniesieniu do których można by rozważyć odpowiedzialność za szkody wyrządzone przez Sztuczna Inteligencję, wskazuje się twórców systemu (programistów i producentów takiego oprogramowania, a także osoby uczące), osoby wprowadzające oprogramowanie do obrotu w celach jego instalacji w konkretnych urządzeniach, producentów urządzeń wyposażonych w system Sztucznej Inteligencji, właścicieli konkretnych urządzeń wykorzystujących Sztuczną Inteligencję, podmioty posługujące się systemem Sztucznej Inteligencji w ramach swojej działalności gospodarczej, a na samym końcu nawet użytkowników i konsumentów, którzy korzystają z algorytmu w celach prywatnych.
W tym miejscu warto zauważyć, że z perspektywy dowodowej, przypisanie bezpośredniej odpowiedzialności komukolwiek spośród wymienionych uprzednio osób może być bardzo trudne, a nawet niemożliwe, chociażby ze względu na niemożliwość wykazania związku przyczynowo - skutkowego, tak istotnego w obecnej doktrynie postępowań dowodowych.
Pierwsze regulacje odpowiedzialności Sztucznej Inteligencji
Ustalenie zasad odpowiedzialności jest natomiast kluczowe dla przedsiębiorców oraz stabilności całej gospodarki. 4 maja 2020 r. światło dzienne ujrzały rekomendacje przygotowane przez komitet ds. prawnych dla Komisji Europejskiej. Z propozycji wynika, że akt ten, powinien mieć status rozporządzenia, co zapewni jak najbardziej zunifikowaną formę rozwiązań prawnych na terenie Unii Europejskiej, jako że nie będzie wymagać on bezpośredniej implementacji w prawie krajowym państwach członkowskich.
Nowe definiowanie Sztucznej Inteligencji
Dotychczas w obrocie powszechne było posługiwanie się definicją powstałą w latach 50. XX wieku przez Johna McCarthy'ego. Nowa definicja oraz pojęcia, które się na nią składają, została przedstawiona w art. 3 i następnych rekomendacji, zgodnie z nią:
-
System Sztucznej Inteligencji to taki, który wykazuje inteligentne zachowanie poprzez analizę pewnych danych wejściowych i podejmowanie działań, z pewną dozą autonomii, w celu osiągnięcia określonych celów.
-
Autonomia oznacza takie działanie, które przetwarza określone dane wejściowych i bez konieczności postępowania zgodnie z zestawem wcześniej ustalonych instrukcji, pomimo swojego zachowania będąc ograniczonym przez wyznaczony uprzednio cel.
-
Wysokie ryzyko oznacza znaczny potencjał w autonomicznie działającym systemie Sztucznej Inteligencji do wyrządzenia krzywdy lub szkody jednej osobie lub większej liczbie osób w sposób losowy i niemożliwy do przewidzenia z góry. Znaczny potencjał zależy od wzajemnego oddziaływania między skalą możliwej krzywdy lub szkody, prawdopodobieństwem, że ryzyko dojdzie do skutku i sposobem użycia systemu Sztucznej Inteligencji.
Wprowadzone definicje można potraktować jako próbę słusznego ujednolicenia materii, która stale ewoluuje i rozwija się zdecydowanie szybciej niż regulacyjna ręka prawa. Należy jednak zauważyć, że rekomendacja wskazuje najistotniejsze cechy systemów Sztucznej Inteligencji, a więc przede wszystkim ich autonomiczność, wykazywanie inteligentnego zachowania oraz działanie na podstawie dostarczanych do systemu danych.
Należy jednak zauważyć, że w rekomendacjach dostrzeżono ogromny potencjał technologii Sztucznej Inteligencji, która będzie w stanie zrewolucjonizować właściwie każdy sektor gospodarki, służbę zdrowia, walkę ze zmianami klimatu czy czynności życia codziennego, co obecnie staje się już coraz bardziej powszechne. Zapewnia to realizowanie zasady zgodnie z którą ustalenie zasad odpowiedzialności jest kluczowe dla przedsiębiorców oraz stabilności całej gospodarki. Warto również pamiętać, że chcąc odpowiedzialnie korzystać ze Sztucznej Inteligencji, warto uzyskać wsparcie w zakresie prawnych regulacji w branży IT, o czym więcej przeczytać można pod adresem: https://rpms.pl/it-nowe-technologie/.
Zasady Odpowiedzialności Sztucznej Inteligencji
Zgodnie z zaproponowanymi rozwiązaniami zasady odpowiedzialności zostały wyznaczone w sposób perspektywiczny, jednak zachowując dozę powściągliwości i tak zakres podmiotowy został organiczny do osób wdrażających tzn. osoby, które decydują o użyciu systemów opartych na infrastrukturze Sztucznej Inteligencji. Osoby te sprawują nadzór nad ryzykiem i czerpią korzyści z działania.
Odpowiedzialność została podzielona na dwa modele:
-
Na zasadzie ryzyka, co dotyczy tylko i wyłącznie systemów Sztucznej Inteligencji wysokiego ryzyka - dotyczy jednie systemów wymienionych w załączniku i dotyczy gałęzi gospodarki takich jak transport w tym, bezzałogowych statków powietrznych, autonomicznych systemów zarządzania ruchem czy pojazdów autonomicznych, czy urządzeń komunalnych takich jak automatyczne urządzenia do czyszczenia miejsc publicznych. Lista ta ma podlegać stałej aktualizacji, ale już na tym etapie widać, że jednym z głównych celów jest szeroka regulacja sektorów transportowych. Obowiązkiem przedsiębiorcy wdrażającego takie systemy będzie posiadanie obowiązkowego ubezpieczenia OC w zakresie kwot wskazanych w art. 5 - 10 mln euro w wypadku krzywdy w postaci śmierci i naruszenia stanu zdrowia oraz 2 mln euro w wypadku szkody dla przedmiotu własności. W takim stanie wdrażający – mimo tego, że określenie kto to dokładnie jest na podstawie zaproponowanej regulacji nie jest w pełni możliwe - będzie mógł uwolnić się od odpowiedzialności jedynie poprzez wykazanie wystąpienia siły wyższej. Zaproponowane okresy przedawnienia są bardzo długie i wynoszą 30 lat od dnia wystąpienia szkody w wypadku śmierci lub naruszenia zdrowia oraz 10 lat od dnia wystąpienia szkody dla przedmiotu własności, z zastrzeżeniem alternatywnego terminu 30 lat od dnia uruchomienia systemu.
-
Na zasadzie winy, dotyczy wszystkich pozostałych systemów Sztucznej Inteligencji – oznacza to, że komisja założyła, że mimo tego, że systemy te również będą nieść za sobą ryzyko, to nie jest ono tak znaczne, a ewentualne szkody nie będę znaczące. Z tego powodu przedsiębiorcy wykorzystujący takie systemy będą zwolnieni z konieczności posiadania ubezpieczenia OC. Propozycje dla takiego rodzaju odpowiedzialności zakładają domniemanie winy, obalane pod warunkiem wykazania, że:
-
System został aktywowany bez wiedzy wdrażającego, a równocześnie podjęto wszystkie uzasadnione i niezbędne środki, aby uniknąć takiej aktywacji.
-
Zachowano należytą staranność, wybierając odpowiedni system dla właściwego zadania i wymaganych umiejętności, system został uruchomiony prawidłowo, monitorowano aktywność i utrzymano niezawodność działania poprzez regularne instalowanie wszystkich dostępnych aktualizacji.
-
Wystąpienie siły wyższej spowodowało nieprawidłowe działanie systemu, czego wdrażający nie mógł powstrzymać ani przewidzieć.
-
Podsumowanie
Sztuczna Inteligencja stanowi konieczne narzędzie, śmiało możemy założyć, że wraz z rozwojem technologii jej wykorzystanie będzie coraz powszechniejsze i będzie wymagać nowych mechanizmów zabezpieczających przedsiębiorców i konsumentów. Zaproponowane przepisy stanowią dobry krok w kierunku stworzenia kompleksowej regulacji zasad odpowiedzialności.
fot. materiały prasowe