یقیناً فناوری دفتر کل غیرمتمرکز ویژگیهایی دارد که هوش مصنوعی فاقد آن است: شفاف، قابلردیابی، قابلاعتماد و بدون دستکاری. اما آیا این ویژگیهای بلاک چین میتواند برخی از ابهامات جعبه سیاه هوش مصنوعی را بزداید؟
هنگامیکه لیزه مایتنر و اتو فریش، فیزیکدانان اتریشی، هسته اتم را برای اولین بار در اواخر دهه 1930 شکافتند، شاید به مخیلهشان خطور نمیکرد که از دل این دستاوردشان بمب اتم سر برآورد. چهبسا انقلاب هوش مصنوعی نیز همینطور باشد.
الگوریتمهای هوش مصنوعی دهههاست که وجود دارند. اولین شبکه عصبی مصنوعی، پرسپترون، در سال 1958 اختراع شد. اما سرعت پیشرفت اخیرش خیرهکننده است و ظاهراً هوش مصنوعی با ابزارهای شناسایی صدا مانند الکسا و چت باتهایی مانند چت جی پی تی، به آگاهی عمومی نوینی دست یافته است.
از جنبه مثبت، هوش مصنوعی بهطور چشمگیری سطح آموزش عمومی این سیاره را بالا برده است و به درمان بیماریهای ویرانگری مثل آلزایمر کمک کرده است. اما این ابزار همچنین میتواند باعث بیکاری شود و دولتهای اقتدارگرا به مدد آن میتوانند مردمانشان را رصد کنند. افزون بر این، جفری هینتون، از پیشگامان هوش مصنوعی، اخیراً هشدار داد:
اگر ماشینها به هوش «عمومی» دست یابند، شاید حتی یاد بگیرند انتخابات و پیگرد حقوقی جنگها را ملغی کنند.
جو بایدن، رئیسجمهور ایالاتمتحده اخیراً هوش مصنوعی را «قابلیتی عظیم و خطری بزرگ» توصیف کرده است. توصیف او به دنبال نامه سرگشادهای بود که مارس امسال بیش از هزار نفر از پیشتازان فناوری منجمله ایلان ماسک و استیو وزنیاک در آن خواستار توقف توسعههای هوش مصنوعی مثل چت جیپی تی شدند. آنها گفتند که این فناوری خطری برای جامعه و انسان است. جو بایدن در این رابطه گفت:
وقتی صحبت از هوش مصنوعی به میان میآید، باید هم از نوآوری قابلاعتماد حمایت کنیم و هم حفاظهای مناسب تدارک ببینیم تا حافظ حقوق مردم و امنیت باشد. دولت ما به این توازن تعهد دارد. اقداماتی مانند رفع سوگیریها در الگوریتمها تا حفظ حریم خصوصی و مبارزه با اطلاعات نادرست در دستور کار ما قرار دارد.
در حال حاضر برخی کشورها در برابر سایت OpenAI که توسعهدهنده چت جیپی تی است، ایستادگی کردند. ایتالیا در ماه مارس چت جیبیتی را بهطور موقت ممنوع کرد و کمیسر حریم خصوصی کانادا در حال تجسس از OpenAI است، با این ظن که اطلاعات شخصی افراد را بدون رضایت آنها جمعآوری و از آن استفاده میکند. اتحادیه اروپا در حال وضع قوانین جدیدی برای هوش مصنوعی است و چین از توسعهدهندگان هوش مصنوعی خواسته که ازاینپس تابع قوانین سفتوسخت سانسور باشند. به نظر میرسد قدری مقررات گذاری در این رابطه لازم باشد.
بلاک چین علاجی برای مصائب هوش مصنوعی
با توجه به دورنمایی که گفتیم، این پرسش به ذهن خطور میکند که آیا فناوری بلاکچین میتواند علاجی بر مصائب هوش مصنوعی ـــ یا دست کم برخی از آنها ــ باشد؟ درکل، فناوری دفتر کل غیرمتمرکز[1] دارای ویژگیهایی مانند شفافیت، قابلیتردیابی، قابلاعتمادبودن و بدون دستکاری بودن است که شاید بتواند برخی از ابهامات را از جعبه سیاه هوش مصنوعی بزداید.
آنتونی دی، مدیر استراتژی و بازاریابی در میدنایت ـــ شاخهای از کاردانو ـــ در ماه آوریل در لینکدین در رابطه با فناوری بلاکچین نوشت:
ما باید در جاها و مواردی که هوش مصنوعی برای جهانمان کاری انجام خواهد داد، مسیری را خلق کنیم تا بتوانیم اعتمادی قابلردیابی، شفاف و غیرقابل سانسور داشته باشیم.
دست کم، بلاکچین میتواند منبعی برای دادههای آموزشی هوش مصنوعی باشد، همانطور که جری کومو از آی بی ام چند سال پیش گفته و هنوزم هم صادق است:
با بلاکچین، شما میتوانید منبع داده آموزشی را ردیابی کنید، همچنین رد ممیزی مدرکی را ببینید که تشخیص میدهد چرا فلان میوه سیب است و نه پرتقال.
نها سینگ، بنیانگذار فناوریهای تراکسن ـــ یک پلتفرم تحلیلی و هوش بازار ــ میگوید:
کاربران مدلهای متمرکز هوش مصنوعی غالباً از مضراتی که در آموزشهایشان جا گرفته است خبر ندارند. میتوان با استفاده از فناوری بلاکچین، شفافیت بیشتری را برای مدلهای هوش مصنوعی ممکن ساخت.
بسیاری متفق هستند که پیش از آنکه هوش مصنوعی تمام و کمال به جریانی اصلی بدل شود باید کاری انجام داد. کای فریس باترفیلد، مدیر هوش مصنوعی و ماشین لرنینگ در فروم اکونومیک ورلد مینویسد:
مردم برای اعتماد به هوش مصنوعی باید بدانند و بفهمند هوش مصنوعی چیست، چهکاری انجام میدهد و چه آثاری دارد. شرکتها و پیشگامان این حوزه باید با بهکارگیری این فناوری، شفافیت و قابلاعتماد بودن هوش مصنوعی را در اولویت قرار دهند.
لازم به ذکر است که اقداماتی در این راستا در حال انجام است. فوریه امسال شرکت فین تک فیکو که در آمریکا مستقر است امتیاز ثبت اختراع برای «بلاک چین برای حاکمیت داده و مدل» را دریافت کرد و رسماً فرایندی را ثبت کرد که سالها از آن برای اطمینان یافتن از اینکه اعمال هوش مصنوعی قابلاعتماد هستند یا خیر، استفاده میکرد.
به گفته این شرکت که بیش از 300 متخصص داده دارد و با بانکهای بزرگ دنیا کار میکند، این شرکت برای ردیابی نقطهبهنقطه منشأ «توسعه، پیادهسازی و نظارت بر مدلهای ماشین لرنینگ به شکل تغییرناپذیر» از یک دفتر کل بر پایه اتریوم استفاده کرده است.
توجه داشته باشید میان اصطلاحات هوش مصنوعی و ماشین لرنینگ تفاوت ظریفی وجود دارد که قابلتوجه است، اما غالباً این اصطلاحات را میتوان به جای هم به کاربرد.
اسکات زولدی، مدیر ارشد تجزیهوتحلیل فیکو، اوایل سال جاری در یک نشریه هوش مصنوعی نوشت که استفاده از بلاک چین حسابرسی [2]را میسر میکند و اعتماد به مدل و شرکت را افزایش میدهد.
نکته مهم این است که بلاکچین دنبالهای از تصمیمگیری را فراهم میکند. این زنجیره نشان میدهد که آیا متغیری قابل پذیرش است، آیا سوگیری در مدل ایجاد میکند یا آیا متغیر بهدرستی بکار گرفته شده است. در واقع بلاکچین کل مسیر ساخت این مدلها را ثبت میکند که شامل خطاها، اصلاحات و بهبودهایشان میشود.
زولدی میگوید ابزارهای هوش مصنوعی باید خوب فهمیده شوند و برای آیندهای با عدالت، باید بیطرف، منصف و شفاف باشند. و اضافه میکند:
اینجا جایی است که به نظرم فناوری بلاکچین میتواند به هوش مصنوعی پیوند یابد.
توسعه مدل، یکی از حوزههای کلیدی است که بلاکچین میتواند در آن اثرگذار باشد، بااینحال چیزهای دیگری هم وجود دارند. برخیها پیشبینی میکنند که ابزارهایی مثل چت جیپیتی شاید تأثیری مخرب بر شبکههای اجتماعی و پلتفرمهای جدید داشته باشد. برای مثال، این ابزار تشخیص محتوای مصنوعی از محتوای واقعی را دشوار میکند.
جاشوا الول، استاد دانشگاه و مدیر مرکز فناوریهای دفترکل توزیعشده در دانشگاه مالتا میگوید:
یکی از جاهایی که بلاکچین میتواند در پیدایش پلتفرمها بسیار مفید باشد، اینجاست: اثبات اینکه شخص X در زمان و تاریخ مشخص، Y را گفته است.
درواقع بلاکچین میتواند چارچوبی برای پاسخگویی ایجاد کند که مثلاً افراد و سازمانها بتوانند بهعنوان منبعی قابلاعتماد شناخته شوند. برای مثال الول اینطور ادامه میدهد که:
اگر شخص X، گفته Y را ثبت کند و آن غیرقابلانکار باشد آنگاه آن گفته بدل به نقطه ارجاع میشود، سپس افراد در آینده میتوانند میزان اعتبار خودشان را بر پایه آنچه در گذشته گفتهاند، بسازند.
الول اضافه میکند که:
دست کم یکی از راهکارهای بلاک چین میتواند استفاده از آن در پیگیری داده، آموزش، آزمایش، حسابرسی و رخدادهای پس از انجام یک پروژه باشد بهنحویکه اطمینان ایجاد کند که نمیتوان برخی از رخدادهایی که اتفاق افتاده را تغییر داد.
بااینحال همه موافق نیستند که بلاک چین میتواند از ریشه مشکلات هوش مصنوعی را بخشکاند، رمان بک، استاد آی تی دانشگاه کوپنهاگن و مدیر مرکز بلاکچین اروپا میگوید:
تا حدی تردید دارم که بلاکچین بتواند پادزهری برای مشکلات هوش مصنوعی باشد. ما امروزه چالشهایی در ردیابی و رهگیری آنچه قراردادهای هوشمند انجام میدهند داریم و حتی اگر بلاکچین شفافیت داشته باشد بازهم برخی از فعالیتها بهسختی حسابرسی میشوند.
در جای دیگری میگوید، کمیسیون اروپا در پی ایجاد «فضایی بینقارهای میان اروپا و آمریکا برای قابلاعتماد کردن هوش مصنوعی است». اما وقتی از یکی از مقامات کمیسیون اروپا پرسیده شد که فناوری بلاکچین میتواند در زدودن ابهامات هوش مصنوعی به کار آید، با تردید پاسخ داد که:
بلاکچین میتواند منابع داده را رهگیری کند و حریم خصوصی افراد را حفظ کند اما بهخودیخود نمیتواند مشکل جعبه سیاه در شبکههای عصبی هوش مصنوعی را حل کند ـــ مثلاً روال معمول کاری که چت جیبیتی میکند. بلاکچین به سیستمهای هوش مصنوعی کمکی نمیکند تا راجع به چرایی و چگونگی تصمیماتی که اتخاذ میکنند، توضیحی ارائه دهند.
وقتی الگوریتمها دچار اختلال میشوند
شاید بلاکچین نتواند هوش مصنوعی را نجات دهد اما بک راههایی را تصور میکند که این دو فناوری بتوانند یکدیگر را تقویت کنند. محتملترین حوزهای که بلاکچین میتواند به کمک هوش مصنوعی بیاید حسابرسی است. اگر خواستار این هستیم که از هوش مصنوعی برای کلاهبرداری یا هر فعالیت غیرقانونی دیگر استفاده نشود میتوانیم خروجیهای هوش مصنوعی را در یک دفتر کل ثبت کنیم. ممکن است کسی از هوش مصنوعی استفاده کند اما ببیند که خروجیهای آن در کارهای مخرب و غیرقانونی استفادهشده، چون آن فرایند ثبتشده، او میتواند پیگیری کند که چه هنگامی و چه کسی از هوش مصنوعی چنین استفادهای کرده است.
یا وسایل نقلیه خودران را درنظربگیرید که با هوش مصنوعی توسعه یافتند، در آنها «حسگرها، الگوریتمها و بلاکچین یک سیستمعامل خودمختار برای ارتباط و هماهنگی میان خودروها ایجاد میکنند» بک اضافه میکند:
شاید همچنان نتوانیم توضیح دهیم که هوش مصنوعی چرا فلان تصمیم را گرفته است اما میتوانیم حسابرسی و بنابراین حاکمیت را تضمین کنیم. یعنی بلاکچین میتواند پیگیری کند که وقتی یک الگوریتم دچار اختلال شد چه کسی واقعاً مقصر بوده است.
اگرچه بلاکچین قادر به حل مشکل جعبه سیاه هوش مصنوعی نیست اما آن مقام رسمی فوقالذکر اتحادیه اروپا میتواند مزایای بلاکچین را اینطور پیشبینی کند:
با استفاده از بلاکچین، امکان ایجاد ثبت شفاف و غیرقابل دستکاری داده میسر میشود که در آموزش مدلهای هوش مصنوعی بکار میرود. هرچند که بلاکچین فینفسه به دنبال تشخیص و کاهش سوگیریها نیست که هنوز هم مسئلهای چالشبرانگیز و قابل تحقیق است.
اجرای یک بلاکچین برای رهگیری مدلسازی هوش مصنوعی
بسیاری از شرکتها هنوز در تقلای دستیابی به هوش مصنوعی «قابلاعتماد» هستند. فیکو و کرونیوم اخیرا حدود 100 شرکت خدمات مالی آمریکای شمالی را بررسی کردند و نتیجه این شد که «43 درصد از پاسخدهندگان گفتند آنها درگیر با ساختارهای حاکمیتی هوش مصنوعی قابلاعتماد هستند که الزامات نظارتی را برآورده کند» همزمان، فقط هشت درصد گفتند که استراتژیهای هوش مصنوعیشان «با ایجاد مدلهای استانداردی که همواره ارزیابی میشوند، کاملاً به بلوغ رسیدهاند.»
فیکو که در سال 1956 با نام کمپانی فیر ایزاکاند تأسیس شد در استفاده از تحلیل آیندهنگر و علوم داده برای تصمیمات تجاری پیشرو بوده است. این شرکت مدلهایی از هوش مصنوعی ساخته که به کسبوکارها در مدیریت ریسک، مبارزه با کلاهبرداری و بهینهسازی عملیاتی کمک میکند.
زولدی، در پاسخ به این سؤال که این شرکت چگونه از یک بلاکچین مجاز اتریوم برای کار تحلیلیاش استفاده کرده، توضیح میدهد که او آن زمان گفتگوهایی با بانکها داشته و متوجه میشود که حدود 70 الی 80 درصد از تمام مدلهای هوش مصنوعی ایجاد شده هرگز به تولید نرسیدهاند.
او همچنین میگوید یک مشکل اساسی این بود که متخصصان علوم داده، حتی در یک سازمان، مدلها را به اشکال مختلف میساختند. بسیاری از مدلها پس از تکمیل، در بررسی حاکمیتی شکست میخورند. مثلاً یک آزمون تعقیبی شاید نشان دهد که یک ابزار متکی به هوش مصنوعی برای تشخیص کلاهبرداری، ناخواسته علیه گروههای قومی خاص تبعیض قائل میشود.
زولدی میگوید به خودم گفتم که «باید راه بهتری وجود داشته باشد» نه اینکه سالی مدلی بسازد و آنگاه شش ماه بعد ــ بعدازاینکه شرکت را ترک کند ـــ بفهمد که او اطلاعات را درست ثبت نکرده است یا از پروتکلهای حاکمیتی مناسب برای بانک پیروی نکرده است.»
فیکو دست به ایجاد یک استاندارد حاکمیتی برای هوش مصنوعی مسئولیتپذیر زده است که برای اجرای آن از یک شبکه بلاکچین استفاده میشود. توسعهدهندگان باید از پیش نسبت به الگوریتمهایی که ممکن است بهکار روند، پروتکلهای بررسی اخلاقی که باید تبعیت شوند، مدلهای بیطرفانه و دیگر فرایندهای لازم آگاه شوند.
این شبکه بلاکچین کل سیر ایجاد هر مدل را ثبت میکند که شامل خطاها، اصلاحات و نوآوریها میشود. زولدی میگوید «پس، یک متخصص مدلی را ایجاد میکند، و دیگری کارش را بررسی میکند و نفر سوم تأیید میکند کل فرایند بهدرستی انجام شده است. سه متخصص این مدل را بررسی کردند و تأیید کردند که مطابق با استاندارد است»
درباره مشکلات مقیاسپذیری که بسیار متداول است چطور؟ آیا همهچیز در یک دفتر کل دیجیتال جا میشود؟ زولدی میگوید «مشکل بزرگی نیست، ما هش یک دارایی نرمافزاری را روی بلاکچین ذخیره میکنیم اما این دارایی نرمافزاری بهخودیخود جای دیگری ذخیره میشود. ما واقعاً نیاز نداریم که ده مگابیت داده روی بلاک چین داشته باشیم.»
مسئولیتپذیری اخلاقی و قانونی
توسعهدهندگان تجاری باید به تجربیاتی مانند فیکو توجه وافر داشته باشند زیرا رهبران سیاسی بهوضوح از خطرات هوش مصنوعی آگاه شدهاند. هریس معاون رئیسجمهور آمریکا در بیانیهای اظهار کرده است «بخش خصوصی بنا به مسئولیتی قانونی و اخلاقی باید امنیت و سلامت محصولاتشان را تضمین کنند و هر شرکتی برای حفاظت از مردم آمریکا باید از قوانین جاری تبعیت کند»
این نگرانیها جهانی هستند. همانطور که یک مقام اتحادیه اروپا گفته است «ما برای اینکه بدانیم هوش مصنوعی برای جامعه مفید است به رویکردی دوجانبه نیاز داریم: اول اینکه، تحقیقات بیشتر در حوزه هوش مصنوعی قابلاعتماد برای بهبود خود این فناوری ضروری است چون باعث میشود که شفاف، قابلفهم، دقیق و امن شود و همچنین به حریم خصوصی و ارزشها توجه کند. دوم اینکه باید قوانین مناسبی برای مدلهای هوش مصنوعی وضع کنیم تا استفاده مسئولانه و اخلاقی از آن تضمین شود، همانطور که در اتحادیه اروپا ضمن قانون مصوبمان راجع به هوش مصنوعی ( AI Act) پیشنهاد کردیم.
بخش خصوصی باید به مزایای خود تنظیمی اهمیت دهد. این امر میتواند مزیتی برای توسعهدهندگان یک شرکت تجاری باشد. زولدی میگوید متخصصان علوم داده گاهی خود را در وضعیت دشواری میبینند، «مسائل اخلاقی در رابطه با نحوه ساخت مدلهایشان و استانداردهایی که بهکار میبرند، اغلب روشن نیستند.»
سخن پایانی:
سازندگان دستگاههای هوش مصنوعی نمیخواهند به مردم آسیب برسانند. اما ابزارهای لازمی را در دست ندارند که تضمین کند چنین اتفاقی روی نخواهد داد. یک شبکه بلاکچین میتواند یاریرسان باشد هرچند در نهایت، شاید یکی از حفاظهای خودتنظیمی یا قضایی باشد که لازم است برای آینده هوش مصنوعی قابلاعتماد بهکار بسته شود.
زولدی میگوید «با متخصصان که صحبت میکنید، میگویند “آنقدر باهوش هستیم که قادر به خلق چنین فناوری باشیم، اما بهاندازهای باهوش نیستیم که بتوانیم آن را قاعدهمند کنیم یا آن را بفهمیم یا آن را توضیح دهیم ” و این خیلی وحشتناک است.
رویهمرفته، قابلیت بلاکچین برای پشتیبانی از هوش مصنوعی مسئولیتپذیر هنوز هم بهطور کامل شناخته نشده است اما در آینده نزدیک اوضاع فرق خواهد کرد. برخی، مانند آنتونی دی، حتی روی آن شرط میبندند:
مطمئن نیستم که بلاکچین واقعاً دنیا را نجات خواهد داد یا خیر، اما یقین دارم که هوش مصنوعی را نجات میدهد.
[1] Decentralized ledger technology
[2] auditability