پائولو آردوینو (Paolo Ardoino)، مدیرعامل تتر (Tether)، اخیراً در شبکه اجتماعی X درباره معایب مدلهای زبانی بزرگ (LLMs) متمرکز هشدار داد.
آردوینو با اشاره به گزارشهایی مبنی بر وقوع یک نقص امنیتی مهم در اوایل سال ۲۰۲۳ در OpenAI، شرکت پیشرو در زمینه هوش مصنوعی مولد، این حادثه را ترسناک توصیف کرد.
طبق گزارش اخیر نیویورک تایمز، OpenAI علیرغم افشای برخی اطلاعات حساس، تصمیم گرفت این نقض امنیتی را فاش نکند.
لئوپولد اسکنبرنر (Leopold Aschenbrenner)، از پژوهشگران سابق OpenAI، این شرکت را به دلیل اقدامات امنیتی ناکافی که میتواند آن را در برابر بازیگران مخرب مرتبط با دولتهای خارجی آسیبپذیر کند، مورد انتقاد قرار داد. اسکنبرنر ادعا کرد که رهبر هوش مصنوعی به دلیل مسائل سیاسی، روابط خود را با او قطع کرده است. با این حال، این شرکت رد کرده که دلیل اخراج این محقق، حادثه مذکور بوده و افزود که این نقص امنیتی حتی قبل از استخدام او توسط OpenAI فاش شده است.
با وجود ادعای OpenAI مبنی بر عدم وجود خطرات امنیتی ملی با فناوری فعلی آنها، همچنان نگرانیهایی در مورد قرار گرفتن اسرار این شرکت در اختیار چین وجود دارد.
علاوه بر حوادث امنیتی، مدلهای متمرکز هوش مصنوعی نیز با انتقاداتی در زمینه استفاده غیراخلاقی از دادهها و سانسور مواجه هستند. رئیس تتر معتقد است که بازگشایی قدرت مدلهای هوش مصنوعی محلی تنها راه برای رسیدگی به نگرانیهای مربوط به حریم خصوصی و همچنین تضمین انعطافپذیری و استقلال است.
او افزود که تلفنهای هوشمند و لپتاپهای جدید به اندازهای قدرتمند هستند که بتوانند مدلهای LLM را به طور کلی تنظیم کنند.
نظرات کاربران