Instytut Przyszłości Życia (The Future of Life Institute, w skrócie FLI) to organizacja założona przez wybitne postacie ze świata technologii i biznesu (m. in. Jaana Talina – współzałożyciela Skype, Maxa „Mad Maxa” Tegmarka – profesora MIT) wspierana przez Radę Naukową, w której zasiadają takie sławy jak Elon Musk, Stephen Hawking czy Martin Rees. Jego głównym zadaniem jest dopilnowanie, aby najbardziej potężne technologie jutra przyniosły korzyści dla ludzkości. Jego działania obecnie skupiają się w głównej mierze na pracy nad utrzymaniem sztucznej inteligencji w pozycji korzystnej dla nas wszystkich.
Instytut ten opracował 23-punktową listę wytycznych dla prac nad sztuczną inteligencją (Asilomar AI Principles), których przestrzeganie ma zapobiec potencjalnym scenariuszom zobrazowanych w filmach takich jak „Terminator” czy „Matrix”.
Wyglądają one następująco:
1. Cel badań: Celem badań nad sztuczną inteligencją powinno być stworzenie nie niesterowanej sztucznej inteligencji ale inteligencji przynoszącej korzyści.
2. Finansowanie badań: Inwestycjom w badania nad sztuczną inteligencją powinno towarzyszyć finansowanie badań nad zapewnieniem korzystnego jej używania z uwzględnieniem kłopotliwych pytań z zakresu nauk komputerowych, ekonomii, prawa, etyki i nauk społecznych takich jak:
– Jak możemy stworzyć przyszłe systemy sztucznej inteligencji na tyle solidnymi aby robiły to co chcemy bez błędów i ryzyka zhakowania?
– Jak możemy rozwijać nasz dobrobyt poprzez automatyzację z jednoczesnym zachowaniem ludzkich zasobów i celów?
– Jak możemy zaktualizować nasze systemy prawne tak aby były bardziej sprawiedliwe i wydajne, aby dotrzymywały kroku sztucznej inteligencji i umożliwiały zarządzanie ryzykiem związanym ze sztuczną inteligencją?
– Z jakim zestawem wartości powinna zostać powiązana sztuczna inteligencja i jaki powinna otrzymać status prawny i etyczny?
3. Powiązane z nauką zasady postępowania: Powinna istnieć zdrowa i konstruktywna wymiana pomiędzy naukowcami pracującymi nad sztuczną inteligencją, a osobami ustalającymi zasady.
4. Kultura badań: Należy wspierać kulturę współpracy, zaufania, i przejrzystości pomiędzy badaczami i osobami rozwijającymi sztuczną inteligencję.
5. Unikanie wyścigu: Zespoły pracujące nad sztuczną inteligencją powinny aktywnie współpracować w celu uniknięcia chodzenia na skróty w sprawach związanych z standardami bezpieczeństwa.
6. Bezpieczeństwo: Systemy sztucznej inteligencji powinny być bezpieczne i zabezpieczone przez cały okres ich funkcjonowania, a także sprawdzalne tam gdzie to odpowiednie i wykonalne.
7. Przejrzystość awaryjności: Jeśli system sztucznej inteligencji przyczyni się do strat, powinna być możliwość ustalenia dlaczego.
8. Przejrzystość prawna: Każde zaangażowanie systemu autonomicznego w proces decyzyjny w zakresie prawnym powinno zapewniać satysfakcjonujące wyjaśnienie możliwe do zbadania przez kompetentne ludzkie władze.
9. Odpowiedzialność: Projektanci i budowniczy zaawansowanych systemów sztucznej inteligencji są udziałowcami moralnych skutków ich użycia, nadużycia i działań, z odpowiedzialnością i możliwością kształtowania tych konsekwencji.
10. Powiązanie wartości: Wysoko autonomiczne systemy sztucznej inteligencji powinny być projektowane w taki sposób, aby ich cele i zachowania mogły zapewniać powiązanie z ludzkimi wartościami przez cały okres ich funkcjonowania.
11. Wartości ludzkie: Systemy sztucznej inteligencji powinny być projektowane i użytkowane w taki sposób, aby były zgodne z ideałami ludzkiej godności, praw, wolności i różnorodności kulturowej.
12. Osobista prywatność: Ludzie powinni mieć prawo do dostępu, zarządzania i kontroli nad wytwarzanymi przez siebie danymi, przekazanymi systemom sztucznej inteligencji do analizy i przetwarzania.
13. Wolność i prywatność: Zastosowanie sztucznej inteligencji do danych osobistych nie może ograniczać bez powodu ludzkich prawdziwych lub uznawanych wolności.
14. Dzielony zysk: Technologie sztucznej inteligencji powinny przynosić zysk i wzmacniać tak wielu ludzi jak to możliwe.
15. Dzielony dobrobyt: Dobrobyt ekonomiczny stworzony przez sztuczną inteligencję powinien być dzielony szeroko, aby przynosić zysk całej ludzkości.
16. Ludzka kontrola: Ludzie powinni wybierać jak i czy powierzać podejmowanie decyzji systemom sztucznej inteligencji, aby osiągnąć wybrane przez ludzi cele.
17. Działalność nie wywrotowa: Nadane uprawnienia do sprawowania kontroli nad wysoko zaawansowanymi systemami sztucznej inteligencji powinny szanować i ulepszać, a nie obalać procesy społeczne i obywatelskie, od których zależy zdrowie społeczne.
18. Wyścig zbrojeń sztucznej inteligencji: Należy unikać wyścigu zbrojeń na polu  autonomicznych, śmiercionośnych broni.
19. Ostrożność w odniesieniu do możliwości: Z braku konsensusu w odniesieniu do przyszłych górnych możliwości sztucznej inteligencji  powinniśmy unikać mocnych założeń.
20. Znaczenie: Zaawansowana sztuczna inteligencja może uosabiać głęboką zmianę w historii życia na ziemi i należy ją planować i zarządzać w sposób odpowiadający wymaganym standardom dbałości i zasobów.
21. Ryzyko: Ryzyko wynikające z systemów sztucznej inteligencji, zwłaszcza katastroficzne lub egzystencjonalne, powinno podlegać planowaniu i staraniom minimalizacyjnym proporcjonalnym do ich przewidywanego wpływu.
22. Rekurencyjne samoulepszanie: Systemy sztucznej inteligencji zaprojektowane do rekurencyjnego samoulepszania lub samoreplikacji w sposób, który mógłby prowadzić do gwałtownego zwiększenia jakości lub ilości muszą podlegać surowym środkom kontroli i bezpieczeństwa.
23. Wspólne dobro: Superinteligencja powinna być rozwijana tylko w służbie szeroko dzielonych ideałów etycznych i dla korzyści całej ludzkości, a nie jednego państwa lub organizacji.

Dla zainteresowanych – polecam lekturę witryny organizacji FLI.



Tagi: Elon Musk, FLI, Jaan Talin, Martin Rees, Matrix, Stephen Hawking, Sztuczna inteligencja, Terminator,

Dodaj komentarz

Bądź pierwszy!

Powiadom o
avatar
wpDiscuz