مدیر عامل OpenAI، سام آلتمن، به همراه رئیس OpenAI، گرگ براکمن و دانشمند ارشد شرکت، ایلیا سوتسکور، یک پست وبلاگی را منتشر کردهاند که در آن بر نیاز به مقررات سختگیرانه در توسعه هوش مصنوعی (AI) برای جلوگیری از سناریوهای فاجعهبار احتمالی تأکید شده است.
آنها پیشنهاد میکنند که در نظر گرفتن مدیریت هوش مصنوعی فوقهوشمند ضروری است، زیرا سیستمهای هوش مصنوعی آینده میتوانند در دهه آینده از قابلیتهای سطح انسانی در حوزههای مختلف پیشی بگیرند. این سه شخص سه رکن اساسی را مشخص کردند که معتقدند برای برنامه ریزی استراتژیک و رسیدگی به این نگرانیها حیاتی هستند.
نقطه شروع
OpenAI سه اصل کلیدی را برای تنظیم هوش مصنوعی (AI) پیشنهاد میکند. در مرحله اول، آنها از تعادل بین کنترل و نوآوری دفاع میکنند، با هدف توافق اجتماعی که ایمنی و ادغام نرم سیستمهای هوش مصنوعی در جامعه را تضمین کند. ثانیاً، آنها ایجاد یک مرجع بینالمللی را پیشنهاد میکنند که مسئول بازرسی و اجرای استانداردهای ایمنی، آزمایش انطباق و اعمال محدودیتهای استقرار و امنیتی با الهام از آژانس بینالمللی انرژی اتمی است. در نهایت، OpenAI بر اهمیت قابلیتهای فنی در حفظ کنترل و تضمین ایمنی هوش مصنوعی فوقهوشمند تأکید میکند. آنها نسبت به اجرای اقدامات نظارتی بیش از حد مانند مجوزها و ممیزی برای فناوریهایی که هنوز به سطح فوقهوشی نرسیدهاند هشدار میدهند.
در اصل، ایده این است که ابر هوش مصنوعی را در راستای اهداف خود نگه داریم و از یک «سناریوی فوران» جلوگیری کنیم، یعنی انفجاری سریع و غیرقابل کنترل در قابلیتهای هوش مصنوعی که از کنترل انسان پیشی میگیرد.
OpenAI همچنین در مورد تأثیر فاجعه باری که توسعه کنترل نشده مدل های هوش مصنوعی میتواند بر جوامع آینده داشته باشد، هشدار میدهد. سایر کارشناسان در این زمینه قبلاً نگرانیهای مشابهی را مطرح کردهاند، از پدرخوانده هوش مصنوعی گرفته تا بنیانگذاران شرکتهای هوش مصنوعی مانند Stability AI و حتی کارمندان قبلی OpenAI که در گذشته با آموزش GPT LLM درگیر بودند. این فراخوان فوری برای رویکردی پیشگیرانه نسبت به حکمرانی و مقررات هوش مصنوعی توجه قانونگذاران در سراسر جهان را به خود جلب کرده است.
چالش قانون گذاری ابر هوش مصنوعی
OpenAI معتقد است که وقتی به این نکات توجه شود، میتوان از پتانسیل هوش مصنوعی آزادانهتر برای همیشه استفاده کرد: آنها گفتند:
این فناوری میتواند جوامع ما را بهبود بخشد و توانایی خلاقانه همه برای استفاده از این ابزارهای جدید قطعاً ما را شگفتزده خواهد کرد
نویسندگان همچنین توضیح دادند که فضا در حال حاضر با سرعتی شتابان در حال رشد است و این تغییر نخواهد کرد. در این وبلاگ آمده است: توقف آن به چیزی شبیه به یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست.
OpenAI چالشهای پیش رو را تصدیق میکند و به این سؤال پرداخته است که چگونه میتوان به توانایی فنی برای اطمینان از ایمنی هوش مصنوعی فوقهوشمند دست یافت. در حالی که پاسخ به این سوال در حال حاضر ناشناخته است، این یک مسئله مبرم است که نیاز به راه حلی دارد، راه حلی که حتی ChatGPT نیز نمیتواند ارائه دهد.