Моралните дилеми на машините

1.Роботът не може да причини вреда на човек или с бездействието си да допусне на човека да бъде причинена вреда.

2. Роботът е длъжен да се подчинява на човека, ако това не противоречи на Първия закон.

3. Роботът е длъжен да се грижи за собствената си безопасност, ако това не противоречи на Първия и Втория закон.   

Айзък Азимов формулира трите закона на роботиката още през далечната 1942 г. в разказа си „Гоненица“, който през 1950 г. бива отпечатан в сборника „Аз, роботът“. По нова време вероятно хората са ги смятали за странна измислица, за нещо, което няма практическо приложение, за научна фантастика, каквато всъщност са били.

Около 65 години по-късно обаче дилемите, заложени в тях, изглеждат все по-актуални.  С навлизането на изкуствения интелект в ежедневието ни, ние, искаме или не, трябва да се подготвим за редица въпроси, които неминуемо ще възникнат.

Освен технологични, тези въпроси ще са от чисто морално естествено.  За разлика от нас, хората, машините все още няма как да бъдат снабдени с морална система, която да им помага да взимат специфични решения в ситуации, в които на пръв поглед няма правилен избор.

Шофирането със сигурност е доста хлъзгава територия, особено когато опре до решения в кризисни ситуации. Скоро по улиците ще започнат да се движат превозни средства, управлявани изцяло от изкуствен интелект. Бъдете сигурни, че те ще бъдат по-добри шофьори от всички нас.

Лошото обаче е, че те няма да са сами на пътя и ние с нашите несъвършени мозъци ще ги поставяме в сложни и дори невъзможни ситуации. Тогава те ще трябва да взимат субективни решения на базата на морални критерии, за да спасяват нас.  Подобна етична  система обаче  засега  няма как да бъде заложена в компютър.

Именно този проблем се опитва да адресира социалният експеримент Moral Machine (Морална машина).  Той предлага на участниците в него (лесно можете да станете част от тях, ако последвате линка) пътни ситуации, които нямат благоприятен изход, и в които някой неминуемо ще пострада. Вие като човешки същества трябва да решите кое е по-малкото зло. Идеята е на базата на тези отговори да се създадат модели на човешкото поведение, информацията от които по-късно да бъдат използвана при създаването на изкуствен интелект.

На пръв поглед повечето от дилемите са лесноразрешими – дали роботът да прегази дете или престъпник, бременна или старец. Много скоро обаче нещата придобиват малко по-сложни измерения. Чий живот да спасим – този на лекаря или на човек с наднормено тегло, да спазим ли закона и да прегазим двамата, които пресичат неправилно, или да го нарушим и да блъснем единия, който пресича правилно?

Сами можете да се уверите в колко сложни ситуации може да ни постави разнобоят между онова, което диктуват правилата, и онова, което предполага моралът. Накрая, след като завършите серията от въпроси, ще получите и собствен профил, от който ще разберете на какви решения сте склонни. Уверяваме ви, решенията не се лесни за същества с морал,  камо ли  за машина с изкуствен интелект. Или пък напротив?

Приложението, което помага с домашното

Запознайте се - WWW, това е Линукс!

Facebook коментари

Бинар коментари (0) :