مقالات تخصصی ارزدیجیتال

مسئولیت اخلاقی بلاک چین: آیا بلاکچین واقعاً می‌تواند اعتماد به هوش مصنوعی را بهبود ببخشد؟

مقالات تخصصی ارزدیجیتال

مطالعه در 14 دقیقه

یقیناً فناوری دفتر کل غیرمتمرکز ویژگی‌هایی دارد که هوش مصنوعی فاقد آن است: شفاف، قابل‌ردیابی، قابل‌اعتماد و بدون دست‌کاری. اما آیا این ویژگی‌های بلاک چین می‌تواند برخی از ابهامات جعبه سیاه هوش مصنوعی را بزداید؟

هنگامی‌که لیزه مایتنر و اتو فریش، فیزیک‌دانان اتریشی، هسته اتم را برای اولین بار در اواخر دهه 1930 شکافتند، شاید به مخیله‌شان خطور نمی‌کرد که از دل این دستاوردشان بمب اتم سر برآورد. چه‌بسا انقلاب هوش مصنوعی نیز همین‌طور باشد.

الگوریتم‌های هوش مصنوعی دهه‌هاست که وجود دارند. اولین شبکه عصبی مصنوعی، پرسپترون، در سال 1958 اختراع شد. اما سرعت پیشرفت اخیرش خیره‌کننده است و ظاهراً هوش مصنوعی با ابزارهای شناسایی صدا مانند الکسا و چت بات‌هایی مانند چت جی پی تی، به آگاهی عمومی نوینی دست یافته است.

از جنبه مثبت، هوش مصنوعی به‌طور چشمگیری سطح آموزش عمومی این سیاره را بالا برده است و به درمان بیماری‌های ویرانگری مثل آلزایمر کمک کرده است. اما این ابزار همچنین می‌تواند باعث بیکاری شود و دولت‌های اقتدارگرا به مدد آن می‌توانند مردمان‌شان را رصد کنند. افزون بر این، جفری هینتون، از پیشگامان هوش مصنوعی، اخیراً هشدار داد:

اگر ماشین‌ها به هوش «عمومی» دست یابند، شاید حتی یاد بگیرند انتخابات و پیگرد حقوقی جنگ‌ها را ملغی کنند.

جو بایدن، رئیس‌جمهور ایالات‌متحده اخیراً هوش مصنوعی را «قابلیتی عظیم و خطری بزرگ» توصیف کرده است. توصیف او به دنبال نامه سرگشاده‌ای بود که مارس امسال بیش از هزار نفر از پیشتازان فناوری من‌جمله ایلان ماسک و استیو وزنیاک در آن خواستار توقف توسعه‌های هوش مصنوعی مثل چت جی‌پی تی شدند. آن‌ها گفتند که این فناوری خطری برای جامعه و انسان است. جو بایدن در این رابطه گفت:

وقتی صحبت از هوش مصنوعی به میان می‌آید، باید هم از نوآوری قابل‌اعتماد حمایت کنیم و هم حفاظ‌های مناسب تدارک ببینیم تا حافظ حقوق مردم و امنیت باشد. دولت ما به این توازن تعهد دارد. اقداماتی مانند رفع سوگیری‌ها در الگوریتم‌ها تا حفظ حریم خصوصی و مبارزه با اطلاعات نادرست در دستور کار ما قرار دارد.

در حال حاضر برخی کشورها در برابر سایت OpenAI که توسعه‌دهنده چت جی‌پی تی است، ایستادگی کردند. ایتالیا در ماه مارس چت جی‌بی‌تی را به‌طور موقت ممنوع کرد و کمیسر حریم خصوصی کانادا در حال تجسس از OpenAI است، با این ظن که اطلاعات شخصی افراد را بدون رضایت آن‌ها جمع‌آوری و از آن استفاده می‌کند. اتحادیه اروپا در حال وضع قوانین جدیدی برای هوش مصنوعی است و چین از توسعه‌دهندگان هوش مصنوعی خواسته که ازاین‌پس تابع قوانین سفت‌وسخت سانسور باشند. به نظر می‌رسد قدری مقررات گذاری در این رابطه لازم باشد.

بلاک چین علاجی برای مصائب هوش مصنوعی

با توجه به دورنمایی که گفتیم، این پرسش به ذهن خطور می‌کند که آیا فناوری بلاکچین می‌تواند علاجی بر مصائب هوش مصنوعی ـــ یا دست کم برخی از آن‌ها ــ باشد؟ درکل، فناوری دفتر کل غیرمتمرکز[1] دارای ویژگی‌هایی مانند شفافیت، قابلیت‌ردیابی، قابل‌اعتمادبودن و بدون دست‌کاری بودن است که شاید بتواند برخی از ابهامات را از جعبه سیاه هوش مصنوعی بزداید.

آنتونی دی، مدیر استراتژی و بازاریابی در میدنایت ـــ شاخه‌ای از کاردانو ـــ در ماه آوریل در لینکدین در رابطه با فناوری بلاکچین نوشت:

ما باید در جاها و مواردی که هوش مصنوعی برای جهان‌مان کاری انجام خواهد داد، مسیری را خلق کنیم تا بتوانیم اعتمادی قابل‌ردیابی، شفاف و غیرقابل سانسور داشته باشیم.

دست کم، بلاکچین می‌تواند منبعی برای داده‌های آموزشی هوش مصنوعی باشد، همان‌طور که جری کومو از آی بی ام چند سال پیش گفته و هنوزم هم صادق است:

با بلاکچین، شما می‌توانید منبع داده آموزشی را ردیابی کنید، همچنین رد ممیزی مدرکی را ببینید که تشخیص می‌دهد چرا فلان میوه سیب است و نه پرتقال.

نها سینگ، بنیانگذار فناوری‌های تراکسن ـــ یک پلتفرم تحلیلی و هوش بازار ــ می‌گوید:

کاربران مدل‌های متمرکز هوش مصنوعی غالباً از مضراتی که در آموزش‌هایشان جا گرفته است خبر ندارند. می‌توان با استفاده از فناوری بلاکچین، شفافیت بیشتری را برای مدل‌های هوش مصنوعی ممکن ساخت.

بسیاری متفق هستند که پیش از آنکه هوش مصنوعی تمام و کمال به جریانی اصلی بدل شود باید کاری انجام داد. کای فریس باترفیلد، مدیر هوش مصنوعی و ماشین لرنینگ در فروم اکونومیک ورلد می‌نویسد:

مردم برای اعتماد به هوش مصنوعی باید بدانند و بفهمند هوش مصنوعی چیست، چه‌کاری انجام می‌دهد و چه آثاری دارد. شرکت‌ها و پیشگامان این حوزه باید با به‌کارگیری این فناوری، شفافیت و قابل‌اعتماد بودن هوش مصنوعی را در اولویت قرار دهند.

لازم به ذکر است که اقداماتی در این راستا در حال انجام است. فوریه امسال شرکت فین تک فیکو که در آمریکا مستقر است امتیاز ثبت اختراع برای «بلاک چین برای حاکمیت داده و مدل» را دریافت کرد و رسماً فرایندی را ثبت کرد که سال‌ها از آن برای اطمینان یافتن از اینکه اعمال هوش مصنوعی قابل‌اعتماد هستند یا خیر، استفاده می‌کرد.

به گفته این شرکت که بیش از 300 متخصص داده دارد و با بانک‌های بزرگ دنیا کار می‌کند، این شرکت برای ردیابی نقطه‌به‌نقطه منشأ «توسعه، پیاده‌سازی و نظارت بر مدل‌های ماشین لرنینگ به شکل تغییرناپذیر» از یک دفتر کل بر پایه اتریوم استفاده کرده است.

توجه داشته باشید میان اصطلاحات هوش مصنوعی و ماشین لرنینگ تفاوت ظریفی وجود دارد که قابل‌توجه است، اما غالباً این اصطلاحات را می‌توان به جای هم به کاربرد.

اسکات زولدی، مدیر ارشد تجزیه‌وتحلیل فیکو، اوایل سال جاری در یک نشریه هوش مصنوعی نوشت که استفاده از بلاک چین حسابرسی [2]را میسر می‌کند و اعتماد به مدل و شرکت را افزایش می‌دهد.

نکته مهم این است که بلاکچین دنباله‌ای از تصمیم‌گیری را فراهم می‌کند. این زنجیره نشان می‌دهد که آیا متغیری قابل پذیرش است، آیا سوگیری در مدل ایجاد می‌کند یا آیا متغیر به‌درستی بکار گرفته شده است. در واقع بلاکچین کل مسیر ساخت این مدل‌ها را ثبت می‌کند که شامل خطاها، اصلاحات و بهبودهایشان می‌شود.

زولدی می‌گوید ابزارهای هوش مصنوعی باید خوب فهمیده شوند و برای آینده‌ای با عدالت، باید بی‌طرف، منصف و شفاف باشند. و اضافه می‌کند:

اینجا جایی است که به نظرم فناوری بلاکچین می‌تواند به هوش مصنوعی پیوند یابد.

توسعه مدل، یکی از حوزه‌های کلیدی است که بلاکچین می‌تواند در آن اثرگذار باشد، بااین‌حال چیزهای دیگری هم وجود دارند. برخی‌ها پیش‌بینی می‌کنند که ابزارهایی مثل چت جی‌پی‌تی شاید تأثیری مخرب بر شبکه‌های اجتماعی و پلتفرم‌های جدید داشته باشد. برای مثال، این ابزار تشخیص محتوای مصنوعی از محتوای واقعی را دشوار می‌کند.

جاشوا الول، استاد دانشگاه و مدیر مرکز فناوری‌های دفترکل توزیع‌شده در دانشگاه مالتا می‌گوید:

یکی از جاهایی که بلاکچین می‌تواند در پیدایش پلتفرم‌ها بسیار مفید باشد، اینجاست: اثبات اینکه شخص X در زمان و تاریخ مشخص، Y را گفته است.

درواقع بلاکچین می‌تواند چارچوبی برای پاسخگویی ایجاد کند که مثلاً افراد و سازمان‌ها بتوانند به‌عنوان منبعی قابل‌اعتماد شناخته شوند. برای مثال الول این‌طور ادامه می‌دهد که:

اگر شخص X، گفته Y را ثبت کند و آن غیرقابل‌انکار باشد آنگاه آن گفته بدل به نقطه ارجاع می‌شود، سپس افراد در آینده می‌توانند میزان اعتبار خودشان را بر پایه آنچه در گذشته گفته‌اند، بسازند.

الول اضافه می‌کند که:

دست کم یکی از راهکارهای بلاک چین می‌تواند استفاده از آن در پیگیری داده، آموزش، آزمایش، حسابرسی و رخدادهای پس از انجام یک پروژه باشد به‌نحوی‌که اطمینان ایجاد کند که نمی‌توان برخی از رخدادهایی که اتفاق افتاده را تغییر داد.

بااین‌حال همه موافق نیستند که بلاک چین می‌تواند از ریشه مشکلات هوش مصنوعی را بخشکاند، رمان بک، استاد آی تی دانشگاه کوپنهاگن و مدیر مرکز بلاکچین اروپا می‌گوید:

تا حدی تردید دارم که بلاکچین بتواند پادزهری برای مشکلات هوش مصنوعی باشد. ما امروزه چالش‌هایی در ردیابی و رهگیری آنچه قراردادهای هوشمند انجام می‌دهند داریم و حتی اگر بلاکچین شفافیت داشته باشد بازهم برخی از فعالیت‌ها به‌سختی حسابرسی می‌شوند.

بلاک چین و هوش مصنوعی

در جای دیگری می‌گوید، کمیسیون اروپا در پی ایجاد «فضایی بین‌قاره‌ای میان اروپا و آمریکا برای قابل‌اعتماد کردن هوش مصنوعی است». اما وقتی از یکی از مقامات کمیسیون اروپا پرسیده شد که فناوری بلاکچین می‌تواند در زدودن ابهامات هوش مصنوعی به کار آید، با تردید پاسخ داد که:

بلاکچین می‌تواند منابع داده را رهگیری کند و حریم خصوصی افراد را حفظ کند اما به‌خودی‌خود نمی‌تواند مشکل جعبه سیاه در شبکه‌های عصبی هوش مصنوعی را حل کند ـــ مثلاً روال معمول کاری که چت جی‌بی‌تی می‌کند. بلاکچین به سیستم‌های هوش مصنوعی کمکی نمی‌کند تا راجع به چرایی و چگونگی تصمیماتی که اتخاذ می‌کنند، توضیحی ارائه دهند.

وقتی الگوریتم‌ها دچار اختلال می‌شوند

شاید بلاکچین نتواند هوش مصنوعی را نجات دهد اما بک راه‌هایی را تصور می‌کند که این دو فناوری بتوانند یکدیگر را تقویت کنند. محتمل‌ترین حوزه‌ای که بلاکچین می‌تواند به کمک هوش مصنوعی بیاید حسابرسی است. اگر خواستار این هستیم که از هوش مصنوعی برای کلاهبرداری یا هر فعالیت غیرقانونی دیگر استفاده نشود می‌توانیم خروجی‌های هوش مصنوعی را در یک دفتر کل ثبت کنیم. ممکن است کسی از هوش مصنوعی استفاده کند اما ببیند که خروجی‌های آن در کارهای مخرب و غیرقانونی استفاده‌شده، چون آن فرایند ثبت‌شده، او می‌تواند پیگیری کند که چه هنگامی و چه کسی از هوش مصنوعی چنین استفاده‌ای کرده است.

یا وسایل نقلیه خودران را درنظربگیرید که با هوش مصنوعی توسعه یافتند، در آن‌ها «حسگرها، الگوریتم‌ها و بلاکچین یک سیستم‌عامل خودمختار برای ارتباط و هماهنگی میان خودروها ایجاد می‌کنند» بک اضافه می‌کند:

شاید همچنان نتوانیم توضیح دهیم که هوش مصنوعی چرا فلان تصمیم را گرفته است اما می‌توانیم حسابرسی و بنابراین حاکمیت را تضمین کنیم. یعنی بلاکچین می‌تواند پیگیری کند که وقتی یک الگوریتم دچار اختلال شد چه کسی واقعاً مقصر بوده است.

اگرچه بلاکچین قادر به حل مشکل جعبه سیاه هوش مصنوعی نیست اما آن مقام رسمی فوق‌الذکر اتحادیه اروپا می‌تواند مزایای بلاکچین را اینطور پیش‌بینی کند:

با استفاده از بلاکچین، امکان ایجاد ثبت شفاف و غیرقابل دست‌کاری داده میسر می‌شود که در آموزش مدل‌های هوش مصنوعی بکار می‌رود. هرچند که بلاکچین فی‌نفسه به دنبال تشخیص و کاهش سوگیری‌ها نیست که هنوز هم مسئله‌ای چالش‌برانگیز و قابل تحقیق است.

اجرای یک بلاکچین برای رهگیری مدل‌سازی هوش مصنوعی

بسیاری از شرکت‌ها هنوز در تقلای دستیابی به هوش مصنوعی «قابل‌اعتماد» هستند. فیکو و کرونیوم اخیرا حدود 100 شرکت خدمات مالی آمریکای شمالی را بررسی کردند و نتیجه این شد که «43 درصد از پاسخ‌دهندگان گفتند آن‌ها درگیر با ساختارهای حاکمیتی هوش مصنوعی قابل‌اعتماد هستند که الزامات نظارتی را برآورده کند» همزمان، فقط هشت درصد گفتند که استراتژی‌های هوش مصنوعی‌شان «با ایجاد مدل‌های استانداردی که همواره ارزیابی می‌شوند، کاملاً به بلوغ رسیده‌اند.»

فیکو که در سال 1956 با نام کمپانی فیر ایزاک‌اند تأسیس شد در استفاده از تحلیل آینده‌نگر و علوم داده برای تصمیمات تجاری پیشرو بوده است. این شرکت مدل‌هایی از هوش مصنوعی ساخته که به کسب‌وکارها در مدیریت ریسک، مبارزه با کلاهبرداری و بهینه‌سازی عملیاتی کمک می‌کند.

زولدی، در پاسخ به این سؤال که این شرکت چگونه از یک بلاکچین مجاز اتریوم برای کار تحلیلی‌اش استفاده کرده، توضیح می‌دهد که او آن زمان گفتگوهایی با بانک‌ها داشته و متوجه می‌شود که حدود 70 الی 80 درصد از تمام مدل‌های هوش مصنوعی ایجاد شده هرگز به تولید نرسیده‌اند.

بلاک چین و هوش مصنوعی

او همچنین می‌گوید یک مشکل اساسی این بود که متخصصان علوم داده، حتی در یک سازمان، مدل‌ها را به اشکال مختلف می‌ساختند. بسیاری از مدل‌ها پس از تکمیل، در بررسی حاکمیتی شکست می‌خورند. مثلاً یک آزمون تعقیبی شاید نشان دهد که یک ابزار متکی به هوش مصنوعی برای تشخیص کلاهبرداری، ناخواسته علیه گروه‌های قومی خاص تبعیض قائل می‌شود.

زولدی می‌گوید به خودم گفتم که «باید راه بهتری وجود داشته باشد» نه اینکه سالی مدلی بسازد و آنگاه شش ماه بعد ــ بعدازاینکه شرکت را ترک کند ـــ بفهمد که او اطلاعات را درست ثبت نکرده است یا از پروتکل‌های حاکمیتی مناسب برای بانک پیروی نکرده است.»

فیکو دست به ایجاد یک استاندارد حاکمیتی برای هوش مصنوعی مسئولیت‌پذیر زده است که برای اجرای آن از یک شبکه بلاکچین استفاده می‌شود. توسعه‌دهندگان باید از پیش نسبت به الگوریتم‌هایی که ممکن است به‌کار روند، پروتکل‌های بررسی اخلاقی که باید تبعیت شوند، مدل‌های بی‌طرفانه و دیگر فرایندهای لازم آگاه شوند.

این شبکه بلاکچین کل سیر ایجاد هر مدل را ثبت می‌کند که شامل خطاها، اصلاحات و نوآوری‌ها می‌شود. زولدی می‌گوید «پس، یک متخصص مدلی را ایجاد می‌کند، و دیگری کارش را بررسی می‌کند و نفر سوم تأیید می‌کند کل فرایند به‌درستی انجام شده است. سه متخصص این مدل را بررسی کردند و تأیید کردند که مطابق با استاندارد است»

درباره مشکلات مقیاس‌پذیری که بسیار متداول است چطور؟ آیا همه‌چیز در یک دفتر کل دیجیتال جا می‌شود؟ زولدی می‌گوید «مشکل بزرگی نیست، ما هش یک دارایی نرم‌افزاری را روی بلاکچین ذخیره می‌کنیم اما این دارایی نرم‌افزاری به‌خودی‌خود جای دیگری ذخیره می‌شود. ما واقعاً نیاز نداریم که ده مگابیت داده روی بلاک چین داشته باشیم.»

مسئولیت‌پذیری اخلاقی و قانونی

توسعه‌دهندگان تجاری باید به تجربیاتی مانند فیکو توجه وافر داشته باشند زیرا رهبران سیاسی به‌وضوح از خطرات هوش مصنوعی آگاه شده‌اند. هریس معاون رئیس‌جمهور آمریکا در بیانیه‌ای اظهار کرده است «بخش خصوصی بنا به مسئولیتی قانونی و اخلاقی باید امنیت و سلامت محصولاتشان را تضمین کنند و هر شرکتی برای حفاظت از مردم آمریکا باید از قوانین جاری تبعیت کند»

هوش مصنوعی و بلاک چین

این نگرانی‌ها جهانی هستند. همان‌طور که یک مقام اتحادیه اروپا گفته است «ما برای اینکه بدانیم هوش مصنوعی برای جامعه مفید است به رویکردی دوجانبه نیاز داریم: اول اینکه، تحقیقات بیشتر در حوزه هوش مصنوعی قابل‌اعتماد برای بهبود خود این فناوری ضروری است چون باعث می‌شود که شفاف، قابل‌فهم، دقیق و امن شود و همچنین به حریم خصوصی و ارزش‌ها توجه کند. دوم اینکه باید قوانین مناسبی برای مدل‌های هوش مصنوعی وضع کنیم تا استفاده مسئولانه و اخلاقی از آن تضمین شود، همان‌طور که در اتحادیه اروپا ضمن قانون مصوبمان راجع به هوش مصنوعی ( AI Act) پیشنهاد کردیم.

بخش خصوصی باید به مزایای خود تنظیمی اهمیت دهد. این امر می‌تواند مزیتی برای توسعه‌دهندگان یک شرکت تجاری باشد. زولدی می‌گوید متخصصان علوم داده گاهی خود را در وضعیت دشواری می‌بینند، «مسائل اخلاقی در رابطه با نحوه ساخت مدل‌هایشان و استانداردهایی که به‌کار می‌برند، اغلب روشن نیستند.»

سخن پایانی:

سازندگان دستگاه‌های هوش مصنوعی نمی‌خواهند به مردم آسیب برسانند. اما ابزارهای لازمی را در دست ندارند که تضمین کند چنین اتفاقی روی نخواهد داد. یک شبکه بلاکچین می‌تواند یاری‌رسان باشد هرچند در نهایت، شاید یکی از حفاظ‌های خودتنظیمی یا قضایی باشد که لازم است برای آینده هوش مصنوعی قابل‌اعتماد به‌کار بسته شود.

زولدی می‌گوید «با متخصصان که صحبت می‌کنید، می‌گویند “آنقدر باهوش هستیم که قادر به خلق چنین فناوری باشیم، اما به‌اندازه‌ای باهوش نیستیم که بتوانیم آن را قاعده‌مند کنیم یا آن را بفهمیم یا آن را توضیح دهیم ” و این خیلی وحشتناک است.

روی‌هم‌رفته، قابلیت بلاکچین برای پشتیبانی از هوش مصنوعی مسئولیت‌پذیر هنوز هم به‌طور کامل شناخته نشده است اما در آینده نزدیک اوضاع فرق خواهد کرد. برخی، مانند آنتونی دی، حتی روی آن شرط می‌بندند:

مطمئن نیستم که بلاکچین واقعاً دنیا را نجات خواهد داد یا خیر، اما یقین دارم که هوش مصنوعی را نجات می‌دهد.


[1] Decentralized ledger technology

[2] auditability

دیدگاه خود را درباره این مطلب بنویسید

امتیاز شما:

از 5

( )

امتیازی ثبت نشده

نظر خود را بنویسید