چالش‌های اخلاقی در انقلاب چهارم صنعتی

چالش‌های اخلاقی در انقلاب چهارم صنعتی
خودروی خودران باید به جان سرنشین اولویت بیشتری بدهد یا عابر پیاده؟
آیا اطلاعاتی که نرم افزارها و سخت‌افزارها از فعالیت‌ها و کارهای ما جمع‌آوری می‌کنند میتواند در دادگاه مورد استناد قرار بگیرد یا نه؟ آیا باید بگذاریم پهبادهای عکاس مانند خبرنگارهای سِمِج به حریم خصوصی ما سرک بکشند و عکاسی کنند یا نه؟ آیا باید اجازه داد که کسی، کشف رمز ژنی از انسان را بنام خود ثبت اختراع کند یا نه؟

دانشمندان از پیش با این چالش‌ها گریبان‌گیر بوده‌اند. با ورود ما به دوران ماشینی نوین، به اخلاق نامه‌ی مدون تازه‌ای نیز نیازمندیم تا به عرف جهانی تبدیل شود.


باید به همان اندازه که به چیزهای مُد روز و انقلابی، در فناوری بها می‌دهیم به اخلاق هم بها دهیم.

 این کار آغاز شده است. سال ۲۰۱۶ دانشگاه آمریکایی Carnegie Mellon خبر از ایجاد مرکز پژوهش‌های "اخلاق در هوش مصنوعی"  داد.


کاخ سفید در دوران رییس جمهور اوباما در اینباره بیانیه داد


بزرگان فناوری مانند گوگل و فیسبوک خبر از کار مشترکی برای تدوین چارچوب اخلاقیِ هوش مصنوعی، دادند.


فرصت‌ها و تهدیدهای هوش مصنوعی هردو بزرگ هستند.


استفان هاوکینگ، الون موسک و خبرگان دیگر در حوزه‌ی فناوری، نیز با امضای بیانیه‌ای خواستار تلاش برای کسب اطمینان از مفید بودن هوش مصنوعی برای اجتماع شدند‌.


در این بیانیه آمده است که :" سودمندی‌های هوش مصنوعی بسیار شگرف است. از آنجا که هرچیزی که در تمدن بشری بوجود آمده محصول هوش انسان است. ما از اینکه با تقویت بیش از اندازه‌ی این هوشمندی با هوش مصنوعی چه بر سر ما خواهد آمد، نگرانیم!

 

ولی توانایی‌های گسترده‌ی آن در ریشه‌کنی فقر و بیماری‌ها را نیز نمی‌توان نادیده گرفت. بنا‌براین باید با پژوهش، راه‌های بهره‌مندی از خوبی‌های آن و مصون ماندن از آسیب‌هایش را بجوییم"


این‌ها نام‌های بزرگی با هدف‌های بزرگ، هستند. ولی این تلاش‌ها با همکاری بین المللی همراه نیست! 

 بیشتر پیامدهای انقلاب چهارم صنعتی به خاطر اینترنت و هوش مصنوعی است.

پروفسور Klaus Schwab بنیانگذار انجمن جهانی اقتصاد می گوید در این مرحله با گمرنگ شدن سیستمهای فیزیکی،  دیجیتال و بیولوژیکی، سیستمهای سایبر-فیزیکی “cyber-physical systems” ساخته خواهد شد.


همچنان که وارد این دوران ماشینی می‌شویم با چالش‌های اخلاقی تازه‌ای روبرو می‌شویم و به قوانین تازه‌ای نیز نیازمندیم. 


در برخی زمینه‌ها به خاطر طبیعت ساختار شکنانه‌ی فناوری، اخلاق باید به کلی از نو تعریف شود.


 باور داریم که بزودی انسان مجبور خواهد شد ویرایش دوم اخلاق را برای خود بنویسد!

 

سرچشمه ی اخلاق

 

اخلاقی که از فلسفه و یا دین سرچشمه می‌گیرد به آسانی با دنیای فناوری کنار نمی‌آید. چیزهایی که ارسطو (فلسفه) گفته یا در کتاب مقدس (دین) گفته شده، راهنمای اخلاق هستند.

 ولی در آنها چیزی درباره‌ی چالش‌های امروزی فناور نیست.


دانشمندان برای این کار تلاش می‌کنند.  کتاب "سه قانون برا ربات‌ها" Three Laws for Robots که آسیموف Asimov نوشته یا work on ethics که Nick Bostrom نوشته است. از این نمونه‌‌ها هستند.


ولی برای انسان تعالی اخلاق فردی خودش نیز سخت بوده است چه برسد به تدوین اخلاق‌نامه برای فناوری‌های نوین!

 

برخی پیامدهای اخلاقی فناوری مانند "تاثیرگذاری الگوریتم های گوگل و فیسبوک بر روی احساس‌ها و انتخاب‌های ما" فوری است و برخی دیگر مانند "تاثیر خودران شدن ماشین‌ها بر بیکاری رانندگان کامیون" در آینده است.


در ادامه برای نمونه چند نمونه از این پیامد ها را می بینیم:

 

  • آیا باید دستکاری ژن و اصلاح نژاد انسان را قانونی کرد تا بچه‌های از پیش طراحی شده متولد شوند؟

 

پژوهش‌گر سرطان Siddhartha Mukherjee در کتاب The Gene، پیامدهای اخلاقی پیشرف علم ژنتیک را بررسی کرده است.

دو نمونه از پرسش هایی که ایشان مطرح کرده اند اینها است:

 

  • اگر آزمایش‌های پیش از تولید نشان‌دهنده‌ی هوش پایین در جنین باشد و راه چاره‌ی آن دستکاری ژنتیک جنین است چه باید کرد؟

 

  • اگر این فناوری تنها در دسترس ثروتمندان بود چه خواهد شد؟

 

در آینده، هوش مصنوعی در همه‌ی تصمیم‌گیری‌ها یاریگر ما خواهد بود.

 

  •   آنموقع از کجا مطمئن می‌شویم که الگوریتم طراحی شده برای هوش مصنوعی به اندازه‌ی کافی خوب است؟

 

  • چگونه فرزندانمان را از سیستم‌هایی که خوب طراحی نشده‌اند و در پیدا کردن شغل، دانشگاه و همسر تاثیر گذار است مصون می‌کنیم.

 

  • آیا پلیس محلی باید از فناوری تشخیص چهره استفاده کند؟(در این فناوری از روی مشخصات ظاهری برخی چهره ها مشکوک و مظنون تشخیص داده می شوند).

 

  • آیا باید نتیجه‌گیری‌هایی که پلیس بر پایه‌ی الگوریتم‌ها بدست می‌آورد ارزش قانونی داشته باشد؟

 

  • تاثیر این بر حریم خصوصی ما چیست؟

 

  • آیا این فنآوری‌ها مانند چاقوی دولبه در دست دولت‌ها برای نظارت و کنترل مردم خواهد بود؟

 

  • اگر دوربین دستگاهی مانند کیندل که با آن کتاب می‌خوانیم بتواند با فناوری شناخت چهره و سنسورهای بایومتریک اثرگذاری هر کلمه و جمله از آنچه می‌خوانیم را بر ما و ضربان قلب و فشار خونمان پایش کند (و در اختیار دیگران قرار دهد) چطور؟

 

  • چطور در نحوه‌ی تصمیم گیری خودروی خودران دخالت می‌کنیم؟

 

  •  چطور مشخص می‌کنیم که کدام ربات تصمیم بگیرد؟

 

  • آیا "هر نفر یک رای" که در حقوق بشر مطرح است را برای ربات‌ها هم در نظر می‌گیریم؟

 

  • آیا ازدواج انسان با ربات را قانونی می‌کنیم؟

 

  • آیا به ربات حق مالکیت می‌دهیم؟

 

  • آیا به ربات‌های برتر حق انتخاب شدن به عنوان مقام‌های سیاسی را می‌دهیم؟

 

راه پیش رو:

 

تا کنون در اقتصادهای آزاد راه برای نوآوری باز بوده است. ولی اکنون برخی دولت‌ها در این روند مداخله می‌کنند. برای نمونه، تاکسی اوبر در ژاپن ممنوع است ولی در هند بدون مشکل سرویس می‌دهد. رویکرد مداخله‌گرانه، فاجعه بار است.

ما با دولت‌هایی که راه فناوری را بند می‌آورند، موافق نیستیم. و همگان را به گفتگوی منسجم جهانی برای تنطیم اخلاق، برای قرن ۲۱ دعوت می‌کنیم.گفتگوها باید از سطح دانشگاه، مطبوعات و مقاله‌ها فراتر رود و حکومت‌ها و نهادهای بین‌المللی را نیز درگیر کند.


تاکنون رویکردهای ما به این موضوع محدود کننده بوده  است. از ممنوع کردن جهانی شبیه سازی انسان تا ممنوعیت بخشی از غذاهای اصلاح ژنتیکی شده.مناطق مختلف جهان نیز رویکردهای متفاوتی داشته‌اند و از هماهنگی و اتحاد برای پیدا کردن پاسخ مشترک برای این چالش‌ها عاجز بوده اند.


رویکرد اروپا در برخورد با پیامدهای فناوری در اجتماع با رویکرد آمریکا تفاوت قابل توجهی دارد.چین هم که همیشه تفاوت بسیاری با دیگران دارد.

 

فناوری مانند آب، راه حرکت خود را می‌یابد و جاهای خالی را پر می‌کند.در دنیای بهم پیوسته ی امروز تصمیم‌های محلی وقتی با اجماع جهانی همراه باشند اثربخش خواهند بود.

برای مشخص کردن و نوشتن پیش‌نویس قوانین و شیوه‌نامه‌ی اجرا برای فناوری‌هایی که باید کنترل شوند، به تشکیلاتی بین‌المللی نیازمندیم. برای نمونه، این سازمان بین‌المللی باید تکلیف مَنطق موجود بر روی الگوریتم‌های هوش‌مصنوعی را مشخص کرده و آن را اجباری کند!


دنیای دانش نمونه‌های موفق بسیاری از همکاری‌های بین المللی را در خود دارد. قرارداد ۱۹۸۷ مونترال برای مقابله با سوراخ شدن لایه‌ی اوزون و کنفرانس بین‌المللی Asilomar در سال ۱۹۷۵ برای تنظیم روند فناوری DNA از این نمونه‌ها هستند.

 

نتیجه گیری:

 

بشر با پرسش‌هایی روبرو است که هنوز برای آن‌ها پاسخی ندارد. پس باید با هم به گفتگو بنشینیم. اگر این کار را نکنیم با خطرهای زیادی روبرو خواهیم شد. قدرتِ برتریِ خود به عنوان انسان را به ماشین‌ها خواهیم باخت.

 

بدون آگاهی از پیامدها در حال تغییر جایگاه انسان هستیم. با خطر ایجاد فاصله بسیار بزرگ و غیر قابل جبرانی در بین طبقه‌ی بهره‌مند از فناوری و طبقه‌ی غیر برخوردار روبرو هستیم.


اگر کسی حتی یک قسمت از سریال تلویزیونی Black Mirror  را دیده باشد باید نگران آینده‌ی بی‌هدفی که با پاسخ ندادن به گیرهای بزرگ قانونی و فلسفی پیش روی ماست، باشد.


این نخستین انقلاب فنآوری نیست و نگرانی‌های موجود نیز تازه نیستند. این نگرانی ها از ۲۰۰ سال پیش که نخستین انقلاب صنعتی روی داد وجود داشته اند. 


معمولا فناوری از حکمرانی پیشی می‌گیرد. ما هنوز اخلاق بهره‌برداری از اینترنت را طراحی نکرده‌ایم و همینطور بی‌قاعده تا امروز آمده‌ایم. ولی برای فناوری‌های بعدی مثل فناوری‌های زیستی و هوش مصنوعی نمی‌توانیم اینگونه برخورد کنیم. سناریوی آینده‌ی ما بطور روز افزونی در دست مهندسان و کار آفرینانی است که لزوما از آنان حساب کشی نمی‌شود!

 

 از ماشین‌های بخار گرفته تا آیفون و افزایش قابل توجه طول عمر! اجتماع در سازگار شدن با فناوری؛ توانایی خوبی دارد.


به گفته‌ی بیل‌گیتس فناوری اخلاق ندارد! به ما بستگی دارد تا کجا آنرا بکار بگیریم و کجا بر سر راهش محدویت بگذاریم!

 

لینک منبع خبر:

۲۸ بهمن ۱۳۹۵
۱۳ فوریه ۲۰۱۷-انجمن جهانی اقتصاد |

اگر این خبر را پسندیدید "خوش خبریم" را به ۲ نفر از دوستانتان معرفی کنید : ارسال این خبر به دوستان

دیدگاه بازدیدکنندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید