PDA

توجه ! این یک نسخه آرشیو شده میباشد و در این حالت شما عکسی را مشاهده نمیکنید برای مشاهده کامل متن و عکسها بر روی لینک مقابل کلیک کنید : قانون اساسي روبات ها



Behzad AZ
06-28-2010, 08:00 AM
قانون اساسي روبات ها


25 ژانويه سال 1979 يکي از کارگران دستگاه هاي مونتاژ خط توليد موتور فورد به نام رابرت ويليامز توسط دستگاه کشته شد. اين اولين فردي بود که قرباني ماشين هاي خودکار يا به اصطلاح امروزي روبات ها شد. جالب اينکه مرگ رابرت ويليامز مصادف بود با پنجاه و هشتمين سالگرد نمايش يک تئاتر با نام روبات هاي جهاني روسم (R.U.R) که در آن کارل چاپک – نويسنده چک قرن بيستم – اولين بار نام روبات را به عنوان يک شخصيت مصنوعي وارد دنياي واژگان جهاني کرد. چاپک اين کلمه را براساس يک کلمه چکسلواکي به معناي بيگاري اختراع کرد و اين واژه در سال 1923 وارد ادبيات انگليسي شد.
ويليامز در سال 1979 در حالي که بخش هاي مونتاژ شده را جمع آوري مي کرد، بر اثر ضربه سنگين بازوهاي روبات کشته شد. خانواده ويليامز بعدها مبلغ 10 ميليون دلار بابت اين خسارت جاني دريافت کردند. هيات منصفه اي که اين پرونده را بررسي مي کرد. تاييد کرد که مرگ ويليامز بر اثر نبود موارد ايمني نظير گزينه هشدار موارد اضطراري که در حين کار کارگر با روبات پيش مي آيد، کشته شده است. البته به لطف راه اندازي خطوط مونتاژ صنعتي، روبات در دنياي امروزي به يک دستگاه معمولي و بعضاً پيش پا افتاده تبديل شده است.
با وجودي که يکي از همين روبات ها باعث مرگ ويليامز شده، امروزه روبات ها به غير از حيطه کارخانه و کارهاي سخت، به زندگي شخصي ما هم وارد شده اند، خانه مان را جارو مي کنند، مين هاي نظامي را خنثي يا منفجر مي کنند، به جاي ما در مريخ پرسه مي زنند، ميوه برداشت مي کنند، از افرادمسن مراقبت مي کنند و براي مابوردهاي مدار چاپي مي سازند.
http://img.tebyan.net/big/1388/11/187870132103152184763310320222475019490.jpg
اين تقسيم کار بين انسان و روبات و همچنين پيشرفت هاي چشمگير در زمينه ساخته روبات ها، بحث اخلاقي روبات ها و ماشين ها را که به عقيده بيل گيتس، موسس مايکروسافت محور پيشرفت هاي آينده فناوري خواهند بود، پيش مي کشد. يکي از نگراني هاي قديمي در مواجهه با روبات ها، بحث فناوري گريزي (Luddite) است که به خاطر ترس از جايگزين شدن روبات ها به جاي نيروي انساني مطرح شده و نگراني هاي بعدي که از آن استنتاج مي شود، مربوط به اين است که هوش مصنوعي روزي از هوش انسان پيشي مي گيرد.
http://img.tebyan.net/big/1388/11/175621951802509721325417017017218230769958.jpg
براساس اين نگرش، روبات ها عليه انسان ها قيام کرده و کارفرمايان خود را از بين مي برند و اين همان مفهومي است که طبق سه قانون روباتيک ايزاک آسيموف، نويسنده مشهور داستان هاي علمي تخيلي، نبايد اتفاق بيفتد اولين قانون از قوانين سه گانه آسيموف که در دهه 1950 در داستان من روبات هستم (I.Robot) مطرح شد، مي گويد:
قانون اول، يک روبات نبايد با ارتکاب عملي يا خودداري از انجام عملي باعث آسيب ديدن يک انسان شود. قانون دوم اين است که يک روبات بايد از تمامي فرمان هاي انسان تبعيت کند، مگر اينکه آن فرمان يا فرمان ها در تعارض با قانون نخست باشد و قانون سوم: تا هنگامي که قانون نخست يا دوم زير پا گذاشته نشده، روبات بايد وجود خود را حفظ کرده و در بقاي خود بکوشد.
http://img.tebyan.net/big/1388/11/23251119123219149169321323416531617930252.jpg
اين قوانين اگرچه در داستان ها آورده شده، در بسياري جاها حتي در صنايع نيز به کار مي رود. رونالد آرکين، مدير لابراتور Mobile Robot در موسسه فناوري جورجيا مي گويد: زماني که پاي روبات ها به ميان مي آيد، دانشمندان هيچ واکنشي نشان نمي دهند و گويي نمي خواهند از خواب خرگوشي بيدار شوند. فکر اين را نمي کنند که چه خواهد شد. اما به نظر مي آيد که با روي کار آمدن تسليحات هسته اي، آنها بايد از خواب بيدار شوند. وي تشريح مي کند که مرگ ويليامز به عنوان يک رويداد صنعتي، نشان دهنده خطاي خود انسان ها در مورد مسايل ايمني است و مرگ ويليامز به ميل و اراده روبات نبوده است. وي مي افزايد: اين رويداد اخلاقي نبوده؛ مگر اينکه شما از ديد يک فناوري گريز و عليه انقلاب صنعتي بخواهيد به اين مساله نگاه کنيد. حال سه ده از مرگ ويليامز مي گذرد و تازه دولت ها به اين فکر افتاده اند که براي روبات ها قانون هايي وضع کنند و محققان در بررسي مفهوم هاي قانوني طرز رفتار روبات ها در مقابل انسان هستند و به اين فکر مي کنند که آيا روبات ها نيز به وکيل نيازي دارند. بيش تر دغدغه آرکين در مورد باز خورد روح انسان درتعامل با روبات هاست. به ويژه با مشاهده اينکه امروزه يکي از اهداف علم روباتيک ورد روبات ها به زندگي شخصي ما، چه به بهانه همدم شدن و چه کمک به انسان است.

قانون صفر

آيزاک آسيموف بعدا (در انتهاي داستان امپراتوري روبات ها) اصل ديگري را که از احتمال بروز مشکل پيشگيري مي کرد، به قوانين سه گانه افزود و قانون اول را نيز براساس آن به صورت زير کامل کرد:
قانون صفر: يک روبات نبايد به بشر آسيب برساند و يا با خودداري از عملي موجب آسيب به بشر شود.
قانون اول( تکميل شده): يک روبات نبايد به انسان آسيب برساند و يا با خودداري از عملي موجب آسيب ديدن او شود، مگر اين که قانون صفر نقض شود.

قانون چهارم

در سال 1974، يعني دو دهه پس از مطرح شدن قوانين سه گانه روباتيک آسيموف، ليوبن ديلوف، نويسنده بلغاري داستان هاي علمي تخيلي در کتاب راه ايکاروس، قانون ديگري را قوانين سه گانه آسيموف افزود، مبني بر اينکه طراحان روبات حق ندارند براي دادن ساختار انساني به روبات ها، روباتي بسازند که روان داشته باشد.

قانون چهارم بنياد دوستان

هري هاريسون، رييس آکادمي تکريم آسيموف در سال 1986 کتابي را با عنوان قانون چهارم روباتيک نوشت و در آن قانون چهارم را اين گونه مطرح کرد که توليد دوباره يک روبات در صورتي مي تواند انجام بگيرد که آن روبات با هيچ کدام از قوانين اول، دوم و سوم تعارض نداشته باشد.

قانون پنجم

نيکولا کساروفسکي، نويسنده بلغاري داستان هاي علمي تخيلي در سال 1983 در کتابي با عنوان قانون پنجم روباتيک، قانون، يک روبات بايد بداند که روبات است. استدلال کساروفسکي اين بود که اگر يک روبات انسان نما به نحوي بپذيرد که روبات نيست، مي تواند قوانين اول تا چهارم را نقض کند.

قوانين قرن بيست و يکم

در ماه اوت سال 2009، دو مهندس آمريکايي با هدف تحقق ساخت روبات هاي آينده، سه قانون روباتيک آيزاک آسيموف را به شکلي مدرن و امروزي تشريح کردند.
http://img.tebyan.net/big/1388/11/78431091603361014819813023576130143195168.jpg
ديويد وودز (David Woods)، پروفسور مهندسي سيستم هاي يکپارچه دانگشاه ايالت اوهايو و رابين مورفي از دانشگاه A&M تگزاس در يکي از شماره هاي مجله علمي IEEEIntelligent Systems اين قوانين را به شيوه اي تغيير دادند که مي تواند در توسعه هوش مصنوعي ونسل هاي آينده روبات ها مورد ملاحظه قرار گيرد. ديويد وودز در اين خصوص توضيح داد: ديدگاه فرهنگي ما از روبات ها به گونه اي است که هميشه آنها را به صورت روبات هاي ضد انسان تجسم مي کنيم. ما انسان ها اعتقاد داريم که روبات ها مي توانند به موجوداتي بهتر از انسان تبديل شوند؛ به طوري که خطاهاي آنها بسيار کم تر از خطاهاي انساني باشد. ما در به روز رساني قوانين آسيموف قصد داريم تصويري راکه از روبات ها وجود دارد به روشي واقعي تر بررسي کنيم.
قوانين پيشنهادي وودز و مورفي به شرح زير است:
1- يک انسان نمي تواند از يک روبات استفاده کند بدون اينکه سيستم کار انسان روبات به بالاترين سطح قانوني و حرفه اي امنيتي و اخلاقي خود برسد.
2- يک روبات بايد به انسان به روشي مقتضي با نقش آنها پاسخ دهد.
3- يک روبات بايد مجهز به قدرت خودمختاري کافي براي محافظت از وجود خود باشد به شرطي که اين حفاظت يک انتقال تدريجي کنترل را ارايه کند که در تضاد با قوانين اول و دوم نباشد.