چه زمانی هوش مصنوعی آنقدر قدرتمند است که خطرناک باشد؟
وبسایت «جامائیکاگلینر» نوشت: چگونه یک سیستم هوش مصنوعی آنقدر قدرتمند میشود که یک خطر امنیتی ایجاد کند و نباید بدون نظارت دقیق مورد استفاده قرار گیرد؟
به گزارش
خبرگزاری صداوسیما به نقل از وبسایت «جامائیکاگلینر»، تنظیمگرهای ارتباطی هوش مصنوعی از ریاضیات برای ایجاد محافظتهای مورد نیاز فناوری هوش مصنوعی استفاده میکنند. صفرها را بشمارید؛ ۱۰۰,۰۰۰,۰۰۰,۰۰۰,۰۰۰,۰۰۰,۰۰۰,۰۰۰ یا ۱۰۰ سپتییلیون محاسبات برای آموزش سیستمهای هوش مصنوعی بر روی حجم عظیمی از دادهها نیاز است.
چیزی که به برخی از قانونگذاران و حامیان ایمنی هوش مصنوعی هشدار میدهد، سطحی از قدرت محاسباتی است که ممکن است فناوری پیشرفته هوش مصنوعی را برای ایجاد یا تکثیر سلاحهای کشتار جمعی یا انجام حملات سایبریِ فاجعهبار قادر سازد.
کسانی که چنین مقرراتی را تدوین کردهاند، اذعان دارند که این مقررات نقطه شروعی ناقص برای تمایز بین سیستمهای مولد هوش مصنوعی کنونی و نسل بعدی هستند که ممکن است حتی قدرتمندتر باشد.
منتقدان به آستانهها حمله کرده و آنها را تلاشی از سوی دولتها برای تنظیم ریاضیات میدانند. به گفته آنها وقتی برخی از قوانین آستانهای مبتنی بر سرعت محاسباتی تعیین میکنند، به سردرگمیها افزوده میشود. منظور آنها چند عملیات شناور در ثانیه است که به آن «فلاپس flops» گفته میشود، در حالی که دیگرقوانین بر اساس تعداد تجمعی محاسبات است، بدون توجه به اینکه چقدر زمان میبَرد.
فرمان اجرایی که سال گذشته توسط «جو بایدن» امضا شد، بر آستانه ۱۰ تا ۲۶ تکیه دارد. قانون جدید ایمنی هوش مصنوعی کالیفرنیا نیز که فرماندار «گاوین نیوسام» تا ۳۰ سپتامبر (۹ مهر) فرصت دارد آن را امضا یا وِتو کند، معیار دومی را به این معادله اضافه میکند: ساخت مدلهای هوش مصنوعی تنظیمشده باید حداقل ۱۰۰ میلیون دلار هزینه داشته باشد.
قانون جامع هوش مصنوعی اتحادیه اروپا هم عملیات ممیز شناور را اندازه گیری میکند، اما آستانه را ۱۰ برابر پایینتر، معادل ۱۰ به توان ۲۵ تعیین کرده است. این قاعده شامل برخی از سیستمهای هوش مصنوعی کنونی میشود. دولت چین هم به اندازهگیری قدرت محاسباتی برای تعیین اینکه کدام سیستمهای هوش مصنوعی به تدابیر حفاظتی نیاز دارند، توجه کرده است.
هیچ کدام از مدلهای هوش مصنوعی که اکنون به صورت عمومی در دسترس هستند، با آستانه بالاتر کالیفرنیا مطابقت ندارد، هرچند احتمالاً برخی از شرکتها شروع به ساخت آنها کردهاند. اگر اینطور باشد، آنها موظفند جزئیات و تدابیر ایمنی خاصی را با دولت آمریکا به اشتراک بگذارند، که از قانون دوران جنگ کُره استفاده کرد تا شرکتهای فناوری را ملزم کند در صورت ساخت چنین مدلهای هوش مصنوعی، وزارت بازرگانی آمریکا را مطلع کنند.
* ابزار اندازهگیری
محققان هوش مصنوعی هنوز در حال بحث هستند که چگونه به بهترین نحو، قابلیتهای جدیدترین فناوری هوش مصنوعی مولد را ارزیابی و آن را با هوش انسانی مقایسه کنند. آزمایشهایی وجود دارد که هوش مصنوعی را در حل پازلها، استدلال منطقی یا پیشبینی سرعت و دقت بررسی میکند تا دریابد که چگونه به پرسشهای افراد از چتبات پاسخ میدهد.
این اندازهگیریها به ارزیابی سودمندیِ ابزار هوش مصنوعی برای یک کار معین کمک میکنند، اما هیچ راه آسانی برای دانستن اینکه کدام ابزار آنقدر توانایی دارد که برای بشریت خطرآفرین باشد، وجود ندارد.
«آنتونی آگویر» فیزیکدان و مدیر اجرایی مؤسسه آینده زندگی گفت: این محاسبه عدد flop، به طور کلی به عنوان بهترین چیزی که در این زمینه داریم، شناخته میشود. این موسسه از تصویب لایحه سنا ۱۰۴۷ کالیفرنیا و سایر قوانین ایمنی هوش مصنوعی در سراسر جهان حمایت کرده است.
«آگویر» ادامه داد: محاسبات ممیز شناور ممکن است تخیلی به نظر برسد، اما در واقع فقط اعدادی هستند که با هم جمع یا ضرب میشوند و آن را به یکی از سادهترین راهها برای ارزیابی توانایی و ریسک یک مدل هوش مصنوعی تبدیل میکند.
وی تصریح کرد: بیشترین کاری که انجام میشود، فقط ضربکردن جداول بزرگ اعداد با هم است. میتوانید به سادگی فکر کنید که چند عدد را در ماشین حساب خود وارد کرده و آنها را جمع یا ضرب میکنید و این همان کاری است که آنها انجام میدهند؛ ۱۰ تریلیون بار یا صد تریلیون بار.
با این حال، برای برخی از مدیران شرکتهای فناوری، این یک معیار بسیار ساده و کدگذاری شده است. «سارا هوکر» دانشمند علوم کامپیوتر که بخش تحقیقات غیرانتفاعی شرکت هوش مصنوعی Cohere را مدیریت میکند، در مقالهای استدلال کرده که هیچ پشتوانه علمی واضحی برای استفاده از چنین معیارهایی به عنوان نماینده ریسک وجود ندارد.
او تاکید کرد که آستانههای محاسباتی که در حال حاضر اجرا میشوند، کوتهنگر هستند و احتمالاً در کاهش ریسک شکست خواهند خورد.
«هوروویتز» و شریک تجاریاش «مارک آندرسن» بنیانگذاران شرکت سرمایهگذاری بانفوذ «سیلیکونولی» از دولت بایدن و همچنین قانونگذاران کالیفرنیا انتقاد کردهاند. آنها معتقدند که مقررات مربوط به هوش مصنوعی میتواند صنعت نوپای استارتاپهای هوش مصنوعی را خفه کند.
از نظر «هوروویتز» تعیین محدودیت در انجامدادن بر اساس ریاضیات، این باور اشتباه را منعکس میکند که تعداد انگشتشماری از شرکتهای بزرگ وجود خواهند داشت که مدلهای توانمندی را تولید میکنند.
* همهچیز خیلی سریع اتفاق میافتد
در پاسخ به این انتقادات، یک سناتور حامی قانون کالیفرنیا در تابستان امسال نامهای به «آندرسن و هوروویتز» ارسال و از این لایحه، از جمله آستانههای نظارتی آن دفاع کرد.
سناتور «اسکات وینر» در این نامه نوشت: تنظیم در سطح بالای ۱۰ به توان ۲۶، راهی روشن برای استثناکردن بسیاری از مدلها از الزامات آزمایش ایمنی است که ما بر اساس شواهد فعلی میدانیم توانایی ایجاد آسیبهای جدی را ندارند.
«وینر» گفت: مدلهای موجود که بهصورت عمومی منتشر شدهاند «برای قابلیتهای بسیار خطرناک آزمایش شدهاند و تحت پوشش این لایحه قرار نخواهند گرفت.
هم «وینر» و هم فرمان اجرایی «بایدن» این معیار را موقتی میدانند که میتواند بعداً تعدیل شود.
«یاسین جرنیت» که در شرکت هوش مصنوعی «هاجینگ فیس» فعالیت میکند، میگوید که این معیار محاسباتی با نگاه مثبتی پیش از دستور سال گذشته «بایدن» به وجود آمد، اما در حال حاضر شروع به منسوخشدن کرده است.
توسعهدهندگان هوش مصنوعی با مدلهای کوچکتر که به قدرت محاسباتی کمتری نیاز دارند، کارهای بیشتری انجام میدهند در حالی که آسیبهای بالقوه محصولات هوش مصنوعی که به طور گستردهتری استفاده میشوند، باعث نخواهد شد که نظارت پیشنهادی کالیفرنیا فعال شود.
«جرنیت» گفت: برخی از مدلها تأثیر بسیار بیشتری بر جامعه خواهند داشت و باید استانداردهای بالاتری داشته باشند، در حالی که برخی دیگر اکتشافیتر هستند و ممکن است چنین فرآیندی برای تأیید آنها منطقی نباشد.
«آنتونی آگویر» فیزیکدان و مدیر اجرایی مؤسسه آینده زندگی هم میگوید منطقی است که تنظیمکنندهها زیرک باشند. او، اما در عین حال برخی مخالفتها با آستانه را به عنوان تلاشی برای اجتناب از هرگونه نظارت بر سیستمهای هوش مصنوعی در حال رشد توصیف میکند.
آگویر گفت: همه اینها خیلی سریع اتفاق میافتد. فکر میکنم انتقاد معتبری وجود دارد که این آستانهها دقیقاً آنچه را که میخواهیم، ثبت نمیکنند. اما فکر میکنم استدلال ضعیفی وجود دارد تا به این نتیجه برسیم که ما نباید کاری انجام دهیم و باید منتظر و امیدوار باشیم که بهترین نتیجه حاصل شود.