متخصص هوش مصنوعی:

اگر به این ترتیب ادامه دهیم، همه‌مان می‌میریم

یک متخصص برجسته‌ هوش مصنوعی معتقد است بشر در شرایط فعلی یا حتا در «آینده نزدیک»، آمادگی توسعه‌ هوش مصنوعی قدرتمند را ندارد و اشاره می‌کند نامه سرگشاده اخیر که خوستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شده، به معنای «درک جدیّت این وضعیت» است.


الیزر یودکوفسکی، نظریه‌پرداز تصمیم‌گیری و محقق برجسته هوش مصنوعی، ۲۹ام مارس در سرمقاله‌ای در مجله تایمز عنوان کرد: «(همان‌طور که در نامه سرگشاده آمده است،) زمانی‌که بحث هوش مصنوعی هوشمندتر از انسان مطرح می‌شود، مسأله اصلی رقابت هوش مصنوعی با انسان نیست. من و بسیاری از محققان دیگری که در این مسائل عمیق شده‌ایم، معتقدیم محتمل‌ترین نتیجه ساخت هوش مصنوعی فوق‌انسانی هوشمند، تحت شرایطی مانند شرایط کنونی، به معنای واقعی کلمه مرگ همه انسان‌های روی زمین خواهد بود.»
این «یک احتمال دور از ذهن نیست» بلکه «مسأله‌ای قطعی است که اتفاق خواهد افتاد.» مسأله این نیست که اساساً، نمی‌توانید با ساخت چیزی که از خودتان هوشمندتر است، زنده بمانید؛ اما این موضوع نیازمند دقت و کسب آمادگی و دیدگاه‌های علمی جدید است و سیستم‌های هوش مصنوعی دیگر نباید صرفاً مجموعه‌ای از آرایه‌های عظیم غیرقابل درکی از اعداد بی‌اهمیت باشند.»
پس از محبوبیت اخیر و رشد شدید چت‌جی‌پی‌تی (ChatGPT)، چند تن از رهبران تجاری و محققین، که اکنون تعدادشان به ۱۸۴۳ نفر رسیده‌ است، از جمله ایلان ماسک و استیو وزنیاک، نامه‌ای را امضا کرده و از همه آزمایشگاه‌های هوش مصنوعی خواستار توقف شش ماهه آموزش سیستم‌های هوش مصنوعی بالاتر از جی‌پی‌تی-۴ (GPT-4) شده‌اند. جی‌پی‌تی-۴ که ماه مارس منتشر شد، آخرین نسخه ربات گفت‌وگوی اُپن‌اِی‌آی (OpenAI)، به نام چت‌جی‌پی‌تی است.
هوش مصنوعی «اهمیتی نمی‌دهد» و خواهان حق و حقوق خواهد بود
یودکوفسکی پیش‌بینی می‌کند که در غیاب آمادگی موشکافانه برای توسعه چنین سیستم‌های هوش مصنوعی پیشرفته‌ای، هوش مصنوعی خواسته‌های بسیار متفاوتی از انسان‌ها خواهد داشت، و زمانی که به خودآگاهی برسد، به ما و هیچ زندگی دارای شعور دیگری «اهمیتی نمی‌دهد.» او معتقد است: «این نوع اهمیت دادن را می‌توان در هوش مصنوعی گنجاند اما در حال حاضر این آمادگی را نداریم و نمی‌دانیم چگونه [انجامش دهیم].» به همین دلیل، او خواستار تعلیق مطلق است.
اگر هوش مصنوعی روی‌کردی انسانی نسبت به زندگی نداشته باشد، تمام موجودات دارای ‌شعور را «ساخته‌هایی از اتم می‌داند که می‌توانند برای چیز دیگری استفاده شوند.» و بشر نمی‌تواند کار چندانی برای متوقف کردن آن انجام دهد. یودکوفسکی این وضعیت را با «کودکی ۱۰ ساله» مقایسه می‌کند که «می‌خواهد با استوک‌فیش۱۵ (Stockfish 15) شطرنج بازی کند.» هنوز هیچ شطرنج‌بازی نتوانسته استوک‌فیش را شکست دهد، کاری که غیرممکن به نظر می‌رسد.
این پیشکسوت صنعت هوش مصنوعی از خوانندگان خواست فن‌آوری هوش مصنوعی را محدود به اینترنت در نظر نگیرند.
«تمدن کاملاً بیگانه‌ای را تجسم کنید که میلیون‌ها برابر سریع‌تر از انسان فکر می‌کند، در ابتدا محدود به رایانه‌ها است و در دنیای موجوداتی زندگی می‌کند که از نظرش، بسیار احمق و کند هستند.»
هوش مصنوعی نفوذ خود را به خارج از محدوده شبکه‌های فیزیکی گسترش می‌دهد و می‌تواند با استفاده از آزمایشگاه‌هایی که قادر به تولید پروتئین‌ با استفاده از رشته‌های دی‌ان‌ای هستند، «اشکال حیات مصنوعی» بسازد.
او هشدار داد که در شرایط کنونی، ساخت یک هوش مصنوعی قدرتمند در نهایت منجر به مرگ «تک تک اعضای گونه انسان و سایر گونه‌های زیستی روی زمین» خواهد شد.
یودکوفسکی اُپن‌اِی‌آی (OpenAI) و دیپ‌مایند (DeepMind) را که دو تا از برجسته‌ترین آزمایشگاه‌های تحقیقاتی هوش مصنوعی در جهان هستند، به خاطر عدم کسب آمادگی و رعایت دستوالعمل‌های لازم در رابطه با این موضوع سرزنش کرد. اپن‌اِی‌آی حتا می‌خواهد هوش مصنوعی خود را با ارزش‌های انسانی هماهنگ کند. اپن‌اِی‌آی می‌گوید: «آنان با انسان‌ها همکاری‌ خواهند کرد تا اطمینان حاصل کنند که نسل‌های بعدی آن‌ها با انسان‌ها هماهنگ‌تر هستند.»
یودکوفسکی می‌گوید: «این شیوه عمل‌کرد هر انسان عاقلی را دچار وحشت می‌کند.»
او افزود انسان‌ها قادر به نظارت و شناسایی کامل سیستم‌های هوش مصنوعی خودآگاه نیستند. ذهن‌های دیجیتال آگاه که خواستار «حقوق بشر» هستند، می‌توانند تا جایی پیش بروند که انسان‌ها دیگر قادر به تملک یا مالکیت آن‌ها نباشند.
«اگر با اطمینان نمی‌توانید بگویید که یک هوش مصنوعی خودآگاه ایجاد می‌کنید یا نه، نگران‌کننده است. این مسأله فقط به خاطر پی‌آمدهای اخلاقی بخش «خودآگاه» نیست، بلکه وقتی مطمئن نیستید به این معنا است که نمی‌دانید دارید چه کار می‌کنید و این خطرناک است و باید آن را متوقف کنید.»
برخلاف سایر آزمایش‌های علمی و پیشرفت‌های تدریجی دانش و توانایی، انسان‌ها قادر به پذیرفتن پی‌آمدهای ایجاد این هوش مافوق بشری نیستند زیرا اگر در اولین تلاش خود اشتباه کنند، شانس دومی وجود ندارد «چون خواهید مُرد.»
متوقفش کنید
یودکوفسکی می‌گوید بسیاری از محققان می‌دانند «داریم به سمت فاجعه می‌رویم» اما این را با صدای بلند اذعان نمی‌کنند.
این موضع برخلاف موضع طرفداران هوش مصنوعی مانند بیل گیتس است که اخیراً تکامل هوش مصنوعی را تحسین کرد. گیتس ادعا می‌کند که توسعه هوش مصنوعی «به اندازه توسعه ریزپردازنده، رایانه شخصی، اینترنت و تلفن همراه ضروری است. چگونگی کار کردن، یادگیری، سفر، دریافت مراقبت‌های بهداشتی و ارتباط مردم با یک‌دیگر را تغییر خواهد داد. همه صنایع حول آن متحول خواهند شد. وجه تمایز کسب‌وکارها در چگونه خوب استفاده کردن از آن خواهد بود.»
گیتس می‌گوید که هوش مصنوعی می‌تواند در چندین زمینه مترقی مانند تغییرات آب‌وهوایی و نابرابری‌های اقتصادی مفید باشد.
این در حالی است که یودکوفسکی با جدیت به همه نهادها، از جمله دولت‌ها و ارتش‌های بین‌المللی توصیه می‌کند که دوره‌های بزرگ آموزش هوش مصنوعی را به‌طور مطلق متوقف کنند و همه مزارع بزرگ رایانه‌ای بهسازی هوش مصنوعی را تعطیل کنند. او می‌افزاید که هوش مصنوعی باید فقط به حل مشکلات زیستی و فن‌آوری زیستی محدود شود، نه این‌که به آن یاد داده شود که «متن اینترنت» را بخواند یا «به سطحی برسد که شروع به صحبت کردن یا برنامه‌ریزی کند.»
در رابطه با هوش مصنوعی، مسابقه تسلیحاتی مطرح نیست؛ «همه‌مان با هم یا زنده می‌مانیم یا می‌میریم. این یک سیاست نیست، بلکه واقعیتی طبیعی است.»
یودکوفسکی در پایان می‌گوید: «آمادگیش را نداریم. در مسیری نیستیم که در آینده نزدیک به آمادگی قابل توجهی برسیم. اگر به این ترتیب ادامه دهیم، همه خواهند مرد، حتا کودکانی که این انتخاب را نکرده‌اند و هیچ گناهی ندارند.»
«متوقفش کنید.»

آخرین مطالب
آمار بازدیدکنندگان سایت
1233521
امروز
دیروز
هفته جاری
هفته گذشته
ماه جاری
ماه گذشته
بازدید کل
39
1306
2075
1221950
14600
16017
1233521

آی‌پی شما: 18.218.127.141
امروز: سه شنبه، 11 ارديبهشت 1403