رایزنی بزرگانِ فناوری دنیا برای گردآوری "اخلاقنامه در هوشمصنوعی"
💠رایزنی بزرگانِ فناوری دنیا برای گردآوری "اخلاقنامه در هوشمصنوعی"💠
دربرابر فیلمهای افسانهای که نگاهش به انسانها مانند جانورانی است که دارای هوشمصنوعی هستند، دلنگرانیهای بزرگ و ناخوشایندی از هوشمصنوعی هست و باید گفتوگوهایی در اینباره برای یافتن راهکاری شایسته آغاز شود.
برای همین، بزرگان این فن، پژوهشگران و دانشمندانی از شرکتهایی مانند گوگل، آمازون، مایکروسافت، آیبیام، و فیسبوک، گردهمآمده و دربارهی «پیامدهای آیندهی هوشمصنوعی بر روی انسان» دیدار و گفتگو میکنند.
با اینکه هنوز هیچ نوشتهای از روش کار این گروه، برنامهی ایشان و حتی نام گروه بیرون نیامدهاست، آگاهان نشریه نیویورکتایمز خبردادهاند که این گروه به دنبال این است:
اطمینان یافتن از اینکه پژوهشهای هوشمصنوعی بهدنبال سود رساندن به مردم است، نه آسیب!
⚠️پلیس خود بودن!
با اینکه هنوز گزارش ناخوشایندی دیده نشدهاست، ولی فناوری هوشمصنوعی، با شتاب بالایش، بسیار از آییننامهها یا حتی گفتگوهای درباره اخلاق در این کار پیشی گرفته است.
"واتسون" که فراوردهای از شرکت آیبیام است نشان داده که میتواند در ساخت فیلمهای کوتاه تبلیغاتی انسانها را به زدوخورد ِ خودشان وادارد!
هوش مصنوعی مغزی است که در پسِ فناوریهای خودکار است. هماکنون در سراسر جهان ارتشها دارند با شتابی فزاینده خودکار و ماشینی میشوند.
در گزارشی چاپ شده از دانشگاه استنفورد، ایشان نیز این را گوشزد کردهاند، اینکه نیاز است گفتگوهایی اینچنینی برای چارهاندیشی چالشهای آیندهی هوشمصنوعی انجامشود.
گروه استنفورد میخواهد با پایش هوشمصنوعی، هر پنج سال یکبار گزارشی از آن بیرون بدهد. این دیدارها و گفتگوها میتوانند ساختار همکاری برای "پلیس خود بودن" بازیگران این صنعت باشد.
چنین همکاریهایی میتواند کلید راهگشای این چالش باشد، چرا که، هر کدام از این شرکتها در زمینهی فناوری روش جداگانهای دارند. نهادهای دولتی نباید اکنون وارد این گفتگوها شوند چون نه تنها بهرهای ندارد که میتواند به کوچک شدن فضای نوآوری بیانجامد.
به گفتهی یکی از نویسندگان گزارش استنفورد: ما نمیگوییم که هیچ آییننامهای نباشد، میگوییم که باید راهِ درست و نادرست برای گردآوری این آییننامه را شناخت.