
آیا باید از اَبرهوش مصنوعی ترسید؟
هوش فرا انسانی
مشکل توسعه AGI در معنای سنتی این است که غیر ممکن است یک برنامه تصمیمگیری درختی برای هر سوال که AGI مجبور به حل آن است ایجاد کنیم.
انسانها هم با چنین چالشی مواجه هستند و این چالش مربوط به ظرفیت ما برای یادگیری و شکل دادن ارتباطات جدید در مغز است که ما را هوشمند و قادر به حل مسائل میکند. اگر ما ندانیم که چگونه یک مسئله را حل کنیم، میتوانیم آن را تجزیه و تحلیل کنیم و پاسخی پیدا کنیم. اکنون همین توانایی شروع به توسعه در پیشرفتهترین سیستمهای هوش مصنوعی کرده است.
یک سیستم برای رسیدن به یک AGI واقعی نیاز به یک ابزار کلیدی دارد که دارا بودن قدرت برنامهنویسی برای هوشمندتر شدن است.
زیستشناسی انسان به طور خودکار مغز را به منظور یادگیری چیزهای جدید توسعه میدهد. این همان چیزی است که نگرانیهای مربوط به هوش مصنوعی از آن نشأت گرفته است.
فرض کنید ما یک سیستم را راهاندازی کنیم که میتواند برنامههای خودش را بازنویسی کند و خود را در هر موضوع، مهارت و توانایی که انسان قادر به انجام آن است، هوشمندتر کند.
این سیستم از ابتدا خیلی هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانایی آن را برای بهبود خود افزایش میدهد.
آیا نمیتوان ابرهوش مصنوعی را از برق کشید؟
این شایعترین سوال عمومی در مورد هوش مصنوعی و ترس از پیشرفت آن است. عوام میگویند کافی است هوش مصنوعی را در هنگام خطرساز شدن از برق بکشند، اما میدانیم که این کار ممکن نیست. همانطور که نمیتوانیم یک ویروس رایانهای را با خاموش کردن کامپیوتر پاک کنیم.
اگر یک ویروس میتواند خودش را در یک سیستم مخفی کند یا خود را کپی کند و سیستمهای دیگر را آلوده کند، پس کنترل یک ابرهوش مصنوعی بینهایت مشکلتر خواهد بود.
بدتر از آن این که هوشمندتر از ما است و میتواند راهی برای حفظ خود پیدا کند.
پس چرا هوش مصنوعی را توسعه میدهیم؟
این سوالی است که به طور طبیعی به ذهن متبادر میشود، اما مشکل این است که هیچ راه معقولتری برای توسعه یک سیستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعی تقلیدی از عملکرد خودکار مغز ما در ایجاد اتصالات عصبی جدید به صورت خود به خود است.
اگر ما بخواهیم از AFIهای ابتدایی فراتر برویم پس توسعه یک ابرهوش مصنوعی اجتناب ناپذیر است، زیرا پس از تجزیه اتم به اجزای هستهای به عنوان یک منبع انرژی، توسعه سلاح هستهای نیز اجتناب ناپذیر شد.
در نهایت، تنها راه جلوگیری از ظهور ابرهوش مصنوعی، جلوگیری از پیشرفت هرگونه توسعه هوش مصنوعی است که به نظر نمیرسد به هیچ عنوان در حال حاضر امکانپذیر باشد.
با این که ابرهوش مصنوعی پتانسیل نامحدودی برای آسیب زدن دارد، حداقل برای سازندگانش میتواند مفید باشد.
اگر دو کشور با هم دشمن باشند، یک کشور چگونه میتواند با وجود چنین سیستمی به دیگری اعتماد کند؟ همین مسئله باعث شده است تا کشورهای ابرقدرت جهان همگی با اختصاص منابع مالی فراوان به دنبال پیشتاز بودن در هوش مصنوعی باشند.
اگر توسعه هوش مصنوعی همینطور ادامه یابد پیدایش یک نژاد هوش مصنوعی اجتناب ناپذیر است.
بنابراین آیا ما باید از ابرهوش مصنوعی بترسیم؟ البته. همانطور که هر پیشرفت تکنولوژیک همواره عواقب ناخواستهای نیز به دنبال دارد هنگامی که ما یک ابر هوش مصنوعی را راهاندازی کنیم دیگر هیچ بازگشتی وجود نخواهد داشت.
اما ما باید به یاد داشته باشیم که طبیعت ما این است که تهدید چنین سیستمی را در نظر داشته باشیم چرا که ما به طور فطری به دنبال تشخیص خطر و جلوگیری از مواجهه با آن هستیم.
واقعیت این است که چنین سیستم قدرتمندی میتواند برای خودش تصمیم بگیرد و احتمالاً این قدرت را دارد که زندگی انسان را نابود کند. بنابراین ابرهوش مصنوعی بزرگترین تهدید برای تمدن انسانی خواهد بود.
اما فراموش نکنیم که اگر چنین قدرتی داشته باشد پس قدرت این را هم دارد که تغییرات آب و هوایی را معکوس کند و منجر به تداوم و بهبود زندگی انسان روی زمین شود.
همانطور که ابرهوش مصنوعی میتواند ناهنجاریهای بالقوه زیادی داشته باشد، در عین حال دارای توانایی برای معکوس کردن اثرات تغییرات اقلیمی، ریشه کنی بیماریها، پایان کمبود و قحطی، پایان دادن به مرگ و ارائه جاودانگی و حتی سفر با سرعتی بیشتر از سرعت نور به سوی کهکشانهای دور است.
ما دلایل زیادی داریم که ابرهوش مصنوعی در نهایت به نفع ما کار خواهد کرد. هر پیشرفت تکنولوژیکی هزینهای در بر داشته است، اما تمدن بشری در نهایت از آن منتفع شده و پیشرفت کرده است.
در نهایت این انسان است که از چیزهای مختلف استفادههای مختلف میکند. برخی از ما سلاحهای ویرانگر کشتار جمعی ساخته اند برخی هم طاعون و فلج اطفال را ریشهکن کردهاند. انسان تا حد زیادی به قحطی فائق آمده است و حتی جنگها هم در حال کاهش است.
اگر روند رسیدن به آینده برای ما چیزی شبیه به گذشته ما باشد، پس ما میتوانیم در مورد آینده هوش مصنوعی خوشبین باشیم.
انتهای پیام