هوش مصنوعی، تهدید یا فرصت

هوش مصنوعی، تهدید یا فرصت

فیلم های ترسناک راجع به آینده و هرج و مرج جوامع در آینده، عموماً دارای یک یا دو بعد یا گروه می باشد که به خاطر کنترل بر هوش مصنوعی، با هم می جنگند و یا می بینیم برای حکم فرمایی بر جهان، انسان ها از طریق هوش مصنوعی به جان هم می افتند. اما این موضوع نشان نمی دهد که امروزه چگونه هوش مصنوعی در جهان عمل می کند. هوش مصنوعی فقط در دستان یک یا دو نفر قرار ندارد، بلکه در دستان یک یا دو میلیارد نفر قرار دارد. یک کودک در آفریقا که دارای یک گوشی موبایل پیشرفته یا تبلت باشد از لحاظ دسترسی به دانش، نسبت به آنچه رییس جمهور آمریکا 20 سال پیش داشت باهوش تر است.

آقای استیون هاوکینگ، فیزیکدان بزرگ حاضر، اخیراً هشدار داده است که اگر هوش مصنوعی (AI) از هوش انسانی(HI)، پیش افتد، می تواند یک نوع نگرانی و تهدید درباره تمدن کنونی بشر، محسوب گردد. آقای ایلان ماسک، پیشگام و مبتکر پول دیجیتالی، پروازهای فضایی خصوصی و ماشین های برقی، نیز چیزی شبیه نگرانی فوق را مطرح نموده اند.

فناوری همیشه مثل یک شمشیر دو لبه است؛ همانطور که آتش ما را گرم می کند ممکن است خانمان سوز هم باشد

                                       علیرضا صالحی امین، چاپ شده در مجله پیک پزشکان امروز، سال 1393

اگر هوش مصنوعی تهدیدی برای زندگی کنونی بشر محسوب شود، باز هم این موضوع چندان غیرعادی نیست و اولین تهدید بشریت به حساب نمی آید. از دهه 1950، انسان در معرض خطرات مشابه قرار گرفته است. از آن زمان تاکنون، با افکار و تخیلات مشابه این موضوع، مواجه بوده ایم؛ مثل، وحشت زیست محیطی ناشی از وجود یک نوع ویروس جدید بدون هیچ قدرت دفاع در برابر آن. فناوری همیشه مثل یک شمشیر دو لبه است؛ همانطور که آتش ما را گرم می کند ممکن است خانمان سوز هم باشد.

هر چند که هوش مصنوعی پیشرفته تر می شود، ولی فقط به کارگیری از آن گسترش می یابد. یعنی اساساً توانایی های ذهنی هر فرد در طی یک دهه، از طریق آن افزایش می یابد. همچنان بین گروه هایی از افراد تضادها و تعارضاتی وجود خواهد داشت. زیرا به نوعی هر یک از گروه ها از طریق هوش مصنوعی برتری پیدا نموده اند.

مطابق با نظرات آقای پینکر، اگرچه آمارها از مکانی به مکان دیگر قدری متفاوت است، نرخ مرگ و میر در جنگ در مقایسه با شش قرن پیش، یکصد برابر کمتر شده است. از آن زمان تاکنون مرگ و میر هم ده برابر کاهش یافته است. این موضوع برای همه تعجب آور است.

ایمن سازی فناوری های نو ظهور

توجه به رهنمودهای اخلاقی در مورد هوش مصنوعی به سه قانون رباتیک ایزاک آسیمف برمی گردد که در داستان کوتاه علمی تخیلی اش به نام «ران اروند یا چرخش» در سال 1942 آورده است؛ یعنی 8 سال قبل از اینکه آلن تورنیگ موضوع هوش مصنوعی را در مقاله اش در سال 1950 به نام «ماشین محاسبه و هوش» معرفی نماید.

امروزه، دیدگاه بینابینی شاغلان حوزه هوش مصنوعی این است که هنوز چند دهه از رسیدن به هوش مصنوعی سطح انسانی نگذشته است. در خوش بینانه ترین حالت، تاریخ 2029 را در نظر می گیریم؛ اما هنوز زمان جهت تدوین استانداردهای اخلاقی وجود دارد.

تلاش هایی توسط دانشگاه ها و شرکت ها جهت توسعه استراتژی ها و رهنمودهای ایمنی هوش مصنوعی صورت پذیرفته است. مشابه رهنمودهای آقای آسیلومار، یکی از ایده ها عبارت است از تعریف دقیق ماموریت هر یک از برنامه های هوش مصنوعی و ایجاد محافظ های کدگذاری شده جهت جلوگیری از استفاده های غیرمجاز. نهایتاً مهم ترین روشی که می توانیم هوش مصنوعی را ایمن نگه داریم، عبارت است از کار روی موسسه های اجتماعی و حاکمیت های انسانی. ما از قبل نیز دارای تمدن ماشینی- انسانی بوده ایم. بهترین راه جهت اجتناب از تضاد و تعارض مخرب در آینده عبارت است از استمرار توسعه ایده آل های اجتماعی خودمان که تاحد زیادی خشونت را کاهش خواهد داد.

کاربردهای هوش مصنوعی

امروزه هوش مصنوعی، در حال توسعه دادن شناخت بیماری ها و پیدا کردن روش های درمانی است و در توسعه انرژی پاک و قابل تجدید، کمک به پاکیزگی محیط، فراهم سازی آموزش با کیفیت بالا به افراد در تمام جهان، کمک به معلولان (مثل ساخت صدای مصنوعی هاوکینگ برای معلولان) و مشارکت در ارایه هزاران روش دیگر، نقش اساسی دارد. ما در دهه های آتی، فرصت برداشتن گام های بزرگ در ارایه کمک به چالش های بزرگ انسانی را پیش رو خواهیم داشت. هوش مصنوعی به عنوان فناوری اصلی و موثرترین تکنولوژی در رسیدن به این پیشرفت خواهد بود. در شناخت و درک این تعهد به منظور کنترل مخاطره های انسانی، یک نوع ضرورت اخلاقی وجود دارد و اولین بار نیست که در انجام موضوعاتی نظیر آن موفق هستیم.

نویسنده: علیرضا صالحی امین

منبع: مجله رادیب

ثبت امتیاز برای این مطلب

احساست رو با بقیه تقسیم کن و امتیاز بده
( 2 امتیاز , میانگین امتیازات 5 از 5 میباشد )
دستیار صوتی Bixby چیست؟

کسانی که این مقاله را خوانده اند مقالات زیر را هم دنبال کرده اند



 ورژن سیستم
  • سایت اصلی رادیب
  • آکادمی آموزش آنلاین رادیب
  • فایل مارکت رادیب
تازه ترین و محبوب ترین مقالات را از طریق شبکه های اجتماعی مجله رادیب دنبال کنید