W zamian za swoje odkrycia wynalazcy posiadający prawa patentowe mają również prawo uniemożliwić innym korzystanie z tych wynalazków (lub naruszanie ich w inny sposób). Zgodnie z amerykańskim prawem patentowym, ktoś, kto „wytwarza, wykorzystuje, proponuje sprzedaż lub sprzedaje jakikolwiek opatentowany wynalazek na terenie Stanów Zjednoczonych lub importuje jakikolwiek opatentowany wynalazek do Stanów Zjednoczonych w okresie obowiązywania patentu”, narusza zastrzeżenie patentowe.
W celu ustalenia naruszenia konieczne jest dwuetapowe dochodzenie, które ma na celu: (1) ustalenie znaczenia każdego wyrażenia w zastrzeżeniu patentowym; oraz (2) wykazać, że oskarżane urządzenie spełnia każdy warunek roszczenia (tj. przedawnienia roszczenia), w sposób wyraźny lub zgodnie z teorią ekwiwalentów.
Biorąc pod uwagę, że większość sztucznej inteligencji ma obecnie technologiczne możliwości naruszania roszczeń patentowych, odpowiedzialność w sytuacjach, gdy sztuczna inteligencja narusza prawa patentowe, to kolejny kluczowy problem prawa patentowego, który prawdopodobnie zostanie zakłócony przez sztuczną inteligencję.
Problem odpowiedzialności wiąże się z pytaniem, kto powinien ponosić odpowiedzialność za czyny dokonane przez sztuczną inteligencję – użytkownik końcowy, twórca czy sama sztuczna inteligencja – a także związanym z tym pytaniem, jak zmierzyć winę.
Rozwiązaniem może być:
- Jak stwierdzono w Uchwale, do szkód wyrządzonych przez sztuczną inteligencję mogą mieć zastosowanie „przepisy regulujące odpowiedzialność za szkodliwe działania – w przypadku których użytkownik produktu ponosi odpowiedzialność za zachowanie prowadzące do szkody”. Jednym z potencjalnych oskarżonych byliby użytkownicy końcowi sztucznej inteligencji. Może to jednak spowodować, że klienci będą bardziej zaniepokojeni i mniej chętni do stosowania potencjalnie przydatnej sztucznej inteligencji. W wielu przypadkach, szczególnie gdy są to ludzie, a nie inteligentne organizacje, użytkownicy końcowi nie są w stanie przewidzieć naruszenia patentu.
- To stwarza alternatywę polegającą na pociągnięciu do odpowiedzialności twórcy lub producenta sztucznej inteligencji. W sporach patentowych typową praktyką jest pociąganie producenta produktu do odpowiedzialności za naruszenie patentu. Może to być właściwe również w kontekście sztucznej inteligencji, ponieważ programiści ponoszą ostateczną odpowiedzialność za stworzenie sztucznej inteligencji (która narusza patent), zazwyczaj są w stanie lepiej przewidzieć naruszenie niż użytkownicy końcowi i prawdopodobnie odnieśli korzyści finansowe z AI.
- Czy jednak czynnik ludzki rzeczywiście może przewidzieć działanie sztucznej inteligencji lub odpowiednio ją nadzorować, aby zapobiec naruszeniom w przypadku całkowicie autonomicznej sztucznej inteligencji? Czy gdyby ludzie zostali pociągnięci do odpowiedzialności za nieprzewidziane zachowania, takie jak naruszenie patentów, zniechęciłoby to do rozwoju i wykorzystania sztucznej inteligencji (AI)? Jeśli tak, jak wpłynie to na innowacyjność?