Czy AI ma sztuczne sumienie?
Sztuczna Inteligencja decyduje który pracownik jest „nieefektywny” i należy go zwolnić. Udziela specjalistycznych porad i staje się przyjacielem. Zyskuje coraz większe możliwości i podejmuje najpoważniejsze decyzje dotychczas zarezerwowane dla ludzi. Dlatego musi być wyposażona w rozpoznawanie dobra i zła, a nie jedynie w zbieranie faktów i dobieranie środków do celu.
- Człowiek ma sumienie, ale czy AI poza algorytmem ma „sztuczne sumienie”? - zastanawia się ekspert KUL, kierownik Katedry Metodologii Nauk na Wydziale Filozofii Katolickiego Uniwersytetu Lubelskiego Jana Pawła II prof. dr hab. Agnieszka Lekka-Kowalik.
Decyzje poza kontrolą
Kaiwa Robot Technology buduje humanoidalnego robota, który ma pełnić funkcję surogatki. Projekt ma zostać skomercjalizowany w 2026 roku. AI była też kandydatką na burmistrza włoskiego Tarentu w Apulii. - Małżeństwa hybrydowe, czyli człowieka z robotem są już na porządku dziennym, a nawet mówi się już o rozwodach. Sztuczna inteligencja pełniła także funkcję kapłana, udzielając ślubu parze z Kolorado w Historic Morrison Church – wymienia prof. dr hab. Lekka-Kowalik.
Przykład z ostatnich dni - największy bank w Rosji -Sberbank - ogłosił, że do końca roku zwolni nawet 20 proc. swoich pracowników. Do wskazania tych osób użyto systemu sztucznej inteligencji. AI pomoże też rosyjskiemu gigantowi zamknąć "nieefektywne projekty".
AI jest rozwijana w sposób, który spowoduje, że coraz szybciej staje się uczestnikiem naszego życia społecznego. - Nie ma dnia, żeby nie pojawiły się „wstrząsające” informacje dotyczące rozwoju sztucznej inteligencji, która jest obecna już niemal we wszystkich sferach życia. I z dnia na dzień zyskuje coraz większe możliwości. Niewątpliwie też sztuczna inteligencja będzie działała coraz bardziej autonomicznie, co oznacza że będzie podejmowała decyzje poza kontrolą człowieka– uważa filozof prof. dr hab. Agnieszka Lekka-Kowalik.
Cztery role AI
Pierwsza rola sztucznej inteligencji to gromadzenie informacji, druga – ich analiza z funkcją wspomagania przy podejmowaniu decyzji. Trzecia to rekomendowanie, która decyzja byłaby najlepsza w określonej sytuacji. Tu nadal ostateczna decyzja należy do człowieka. - I wreszcie decydowanie i podejmowanie działania, to owa słynna autonomiczna sztuczna inteligencja – mówi prof. dr hab. Lekka-Kowalik, podkreślając że każda z tych ról rodzi problemy etyczne. Ale to autonomiczna sztuczna inteligencja budzi najwięcej kontrowersji.
- Oddając decyzje w ręce AI mamy nadzieję, że są one słuszne, to znaczy respektują dobro, godność osoby, nasze najwyższe wartości – podkreśla ekspert KUL. Ale jakie są to wartości?
W 2017 roku odbyła się konferencja w Asilomar w Kalifornii, gdzie sformułowano 23 zasady rozwoju sztucznej inteligencji. Przyjęły je czołowe firmy i postaci świata AI. Pierwsza z zasad głosi, że sztuczna inteligencja ma być „benewolentna”.
- W polskim tłumaczeniu użyto terminu „korzystna”, ale angielskie „benevolent” oznacza, że to taka która chce i czyni dobro. I właśnie sztuczna inteligencja ma respektować nasze najwyższe ideały etyczne – wyjaśnia prof. dr hab. Agnieszka Lekka-Kowalik.
Sumienie AI
Można sobie wyobrazić sytuację, gdy AI ma zdecydować który z dwóch pacjentów ma otrzymać respirator ratujący życie. - Potrzebny jest sąd rozstrzygający do kogo trafi respirator. Takie sąd musi uwzględniać fakty i wartości, poza tym AI powinna umieć go uzasadnić, bo rodzina osoby, która respiratora nie otrzymał ma prawo znać powody tej decyzji – wskazuje ekspert KUL. Sztuczna inteligencja powinna być wyposażona nie tylko w umiejętność zebrania faktów, znajdowania korelacji, ale także ustalania optymalnego działania w świetle rozpoznanego dobra i zła.
Etyka maszyn
- Co więcej, powinna się uczyć z doświadczenia, to znaczy powinna umieć ocenić, czy słusznie zadecydowała. W przypadku człowieka powiedzielibyśmy, że człowiek ma sumienie. Czy wobec tego musimy wyposażyć sztuczną inteligencję w sztuczne sumienie? Okazuje się, że w takim kierunku idą badania w takiej interdyscyplinarnej dziedzinie zwanej etyką maszyn – mówi prof. dr hab. Lekka-Kowalik. - Chodzi tu o autonomiczne działania AI , która powinna być w stanie usprawiedliwić swoje decyzje, co wymaga odwołania się do zasad, a nie tylko do statystyki ludzkich zachowań. Innymi słowy, nie wystarczy zgromadzenie wszystkich informacji, jak się w określonej sytuacji zachowali ludzie – dodaje.
Sumienie algorytmiczne
My, jako ludzie, ponoszący konsekwencje tych decyzji mamy prawo widzieć, jakimi wartościami i etyką kieruje się AI. - Ten komponent etyczny powinien być jawny, transparentny, a transparentność zapewniają zasady, które zostały implementowane w sztuczną inteligencję. Człowiek ma sumienie i zakładamy, że wyposażymy w sumienie sztuczną inteligencję – mówi prof. Lekka-Kowalik. To już ma nawet swoją nazwę – sumienie algorytmiczne.
Mędrzec autorytet
AI we współczesnym świecie staje się „sztucznym mędrcem”, a mędrcy są autorytetami. Może się więc stać że będziemy jej ufać bardziej niż „ludzkim” autorytetom. - Jeśli mamy koegzystować ze sztuczną inteligencją i sztuczna inteligencja będzie podejmować decyzje, to musimy mieć pewność, że ona zadziała dla naszego dobra, nie szkodząc nam – podkreśla prof. dr hab. Agnieszka Lekka-Kowalik.
Czy sztuczna inteligencja może mieć sumienie?
- 18.12.2025 10:25
- Źródło: KUL

Źródło: KUL











Komentarze