نگاهی به آنچه در مورد هوش مصنوعی در بریتانیا می گذرد
وعده و دام هوش مصنوعی این روزها موضوع داغی است. برخی میگویند هوش مصنوعی ما را نجات میدهد: رفع مشکلات مخرب سلامتی، رفع شکافهای دیجیتال در آموزش و انجام کارهای خوب دیگر در حال انجام است. دیگران از تهدیداتی که در جنگ، امنیت، اطلاعات نادرست و غیره ایجاد می کند، نگران هستند. همچنین به یک انحراف بسیار محبوب برای مردم عادی و زنگ خطر در تجارت تبدیل شده است.
هوش مصنوعی بسیار زیاد است، اما (هنوز) نتوانسته است جای سر و صدای اتاقهای پر از مردمی که با هم صحبت میکنند را بگیرد. و این هفته، تعداد زیادی از دانشگاهیان، تنظیمکنندهها، روسای دولت، استارتآپها، بازیگران فناوری بزرگ و دهها سازمان انتفاعی و غیرانتفاعی در بریتانیا گرد هم میآیند تا همین کار را انجام دهند و در مورد هوش مصنوعی صحبت کنند.
چرا انگلستان؟ چرا حالا؟
در روزهای چهارشنبه و پنجشنبه، بریتانیا میزبان چیزی است که به عنوان اولین رویداد در نوع خود توصیف کرده است، “اجلاس ایمنی هوش مصنوعی” در بلچلی پارک، مکان تاریخی که زمانی خانه کدشکن های جنگ جهانی دوم بود و اکنون موزه ملی را در خود جای داده است. از محاسبات
ماه ها در برنامه ریزی، هدف اجلاس بررسی برخی از سوالات بلندمدت و خطرات هوش مصنوعی است. اهداف به جای مشخص، آرمان گرایانه هستند: “درکی مشترک از خطرات ناشی از هوش مصنوعی مرزی و نیاز به اقدام”، “فرآیند رو به جلو برای همکاری بین المللی در مورد ایمنی هوش مصنوعی مرزی، از جمله بهترین روش برای حمایت از چارچوب های ملی و بین المللی،” اقدامات مناسبی که سازمانهای فردی باید برای افزایش ایمنی هوش مصنوعی مرزی انجام دهند و غیره.
این آرزوی سطح بالا در افرادی که شرکت می کنند نیز منعکس می شود: مقامات عالی رتبه دولتی، کاپیتان های صنعت، و متفکران برجسته در این فضا از جمله کسانی هستند که انتظار می رود در آن شرکت کنند. (آخرین ورود دیرهنگام: ایلان ماسک؛ گزارش شده است که آخرین نه شامل رئیس جمهور بایدن، جاستین ترودو و اولاف شولز می شود.)
به نظر منحصر به فرد می رسد، و این است: «بلیت های طلایی» (همانطور که اعظم ازهر، بنیانگذار و نویسنده فناوری مستقر در لندن، آنها را توصیف می کند) به اجلاس سران کمیاب است. مکالمات کوچک و بیشتر بسته خواهد بود. بنابراین از آنجایی که طبیعت از خلاء متنفر است، مجموعه کاملی از رویدادها و تحولات خبری دیگر در اطراف اجلاس سران پدید آمده است که در بسیاری از موضوعات و ذینفعان در حال بازی حلقه می زند. اینها شامل گفتگوهایی در انجمن سلطنتی (آکادمی ملی علوم بریتانیا) بوده است. کنفرانس بزرگ “AI Fringe” که در طول هفته در چندین شهر برگزار می شود. بسیاری از اطلاعیه های گروه های ضربت؛ و بیشتر.
جینا نف، مدیر اجرایی مرکز فناوری و دموکراسی میندرو در دانشگاه کمبریج که هفته گذشته در یک میزگرد عصرانه درباره علم و ایمنی در انجمن سلطنتی صحبت می کرد، گفت: «ما همان اجلاسی را انجام خواهیم داد که به ما رسیده است. . به عبارت دیگر، رویداد در بلچلی همان کاری را که انجام میدهد انجام میدهد، و هر چیزی که در حیطه کاری نیست، فرصتی میشود تا مردم سر خود را جمع کنند و در مورد بقیه صحبت کنند.
پنل نف نمونه مناسبی از آن بود: در سالنی مملو از انجمن سلطنتی، او در کنار نماینده ای از دیده بان حقوق بشر، یک افسر ملی از اتحادیه بزرگ اتحادیه، بنیانگذار موسسه جهانی فناوری، یک اتاق فکر متمرکز نشسته بود. در مورد ارزش فناوری در جنوب جهانی، رئیس سیاست عمومی استارت آپ Stability AI و یک دانشمند کامپیوتر از کمبریج.
در همین حال، ممکن است بگویید که AI Fringe فقط در نام است. با اجلاس بلچلی در اواسط هفته و در یک مکان، و با فهرست مهمانان بسیار محدود و دسترسی به همان اندازه محدود به موارد مورد بحث، AI Fringe به سرعت در دستور کار بلچلی قرار گرفت و آن را تکمیل کرد. ، به معنای واقعی کلمه و مجازی. نه توسط دولت، بلکه توسط یک شرکت روابط عمومی با ارتباط خوب به نام Milltown Partners که نماینده شرکت هایی مانند DeepMind، Stripe و VC Atomico است، سازماندهی شده است. به صورت حضوری برای کسانی که میتوانستند بلیت بگیرند – بسیاری از رویدادها فروخته شد – و با اجزای پخش برای بسیاری از بخشهای آن.
حتی با وجود انبوه رویدادها، و حسن نیتی که در رویدادهایی که تا به حال در مورد آن اتفاق افتاده بودیم، برای مردم بسیار دردناک بود که بحث در مورد هوش مصنوعی، همان طور که در حال ظهور است، همچنان تقسیم شده است: یک کنفرانس در راهروها. قدرت (جایی که بیشتر جلسات فقط برای مهمانان دعوت شده بسته خواهد بود) و دیگری برای بقیه.
اوایل امروز، گروهی متشکل از 100 اتحادیه کارگری و فعال حقوق بشر نامهای به نخستوزیر ارسال کردند و گفتند که دولت صدای آنها را در گفتوگو با عدم شرکت آنها در رویداد بلچلی پارک “فشار” میکند. (آنها ممکن است بلیت طلایی خود را نگرفته باشند، اما قطعاً با احتیاط مخالفت کردند: این گروه نامه خود را با به اشتراک گذاشتن آن با فایننشال تایمز، نخبه ترین نشریات اقتصادی در کشور، عمومی کرد.)
و افراد عادی تنها کسانی نیستند که مورد بی مهری قرار گرفته اند. Carissa Véliz، معلم فلسفه در دانشگاه آکسفورد، در یکی از رویدادهای AI Fringe امروز گفت: “هیچ یک از افرادی که من می شناسم دعوت نشده اند.”
برخی بر این باورند که کارآمدسازی یک مزیت دارد.
ماریوس هابهان، دانشمند تحقیقاتی هوش مصنوعی که همچنین یکی از بنیانگذاران و رئیس آپولو ریسرچ، استارت آپی است که ابزارهای ایمنی هوش مصنوعی را می سازد، معتقد است که اعداد کوچکتر نیز می توانند تمرکز بیشتری ایجاد کنند: «هرچه افراد بیشتری در اتاق داشته باشید، کار سخت تر می شود. به هر نتیجه ای می رسیم یا بحث های موثری خواهیم داشت.»
به طور گسترده تر، اجلاس به یک لنگر تبدیل شده است و تنها بخشی از گفتگوهای بزرگ در حال حاضر در جریان است. هفته گذشته، نخستوزیر بریتانیا، ریشی سوناک، قصد راهاندازی یک موسسه جدید ایمنی هوش مصنوعی و یک شبکه تحقیقاتی در بریتانیا را برای صرف زمان و تفکر بیشتر برای مفاهیم هوش مصنوعی بیان کرد. گروهی از دانشگاهیان برجسته، به رهبری یوشوا بنجیو و جفری هینتون، مقالهای به نام «مدیریت ریسکهای هوش مصنوعی در عصر پیشرفت سریع» منتشر کردند تا پارو جمعی خود را در آب بگذارند. و سازمان ملل متحد کارگروه خود را برای بررسی پیامدهای هوش مصنوعی اعلام کرد. امروز، جو بایدن، رئیسجمهور ایالات متحده، دستور اجرایی این کشور را برای تعیین استانداردهایی برای امنیت و ایمنی هوش مصنوعی صادر کرد.
“خطر وجودی”
یکی از بزرگترین بحثها در مورد اینکه آیا ایده هوش مصنوعی که «خطر وجودی» ایجاد میکند، بیش از حد مورد بحث قرار گرفته است یا خیر، شاید حتی عمداً برای حذف نظارت بر فعالیتهای فوریتر هوش مصنوعی مطرح شده است.
مت کلی، استاد ریاضیات سیستم ها در دانشگاه کمبریج، خاطرنشان کرد: یکی از زمینه هایی که بسیار مورد استناد قرار می گیرد، اطلاعات نادرست است.
«اطلاعات غلط جدید نیست. این حتی برای این قرن یا قرن گذشته هم جدید نیست.» او هفته گذشته در مصاحبه ای گفت. اما این یکی از زمینههایی است که فکر میکنیم هوش مصنوعی در کوتاهمدت و میانمدت خطرات بالقوهای به همراه دارد. و این خطرات در طول زمان به آرامی در حال توسعه هستند. کلی یکی از اعضای انجمن سلطنتی علم است که – در پیش از اجلاس سران – یک تمرین تیمی قرمز/آبی را نیز اجرا کرد که به طور خاص بر اطلاعات نادرست در علم تمرکز داشت تا ببیند که مدلهای زبانی بزرگ در هنگام تلاش چگونه عمل میکنند. او گفت که برای رقابت با یکدیگر. “این تلاشی است برای تلاش و درک بهتر خطرات در حال حاضر.”
به نظر می رسد دولت بریتانیا در هر دو طرف این بحث بازی می کند. عنصر آسیب به طور واضح تر از نام رویدادی که برگزار می کند، یعنی نشست ایمنی هوش مصنوعی، بیان شده است.
سوناک در سخنرانی هفته گذشته خود گفت: «در حال حاضر، ما درک مشترکی از خطراتی که با آن روبرو هستیم نداریم. و بدون آن، ما نمیتوانیم امیدوار باشیم که با هم برای رسیدگی به آنها کار کنیم. به همین دلیل است که ما سخت تلاش خواهیم کرد تا بر سر اولین بیانیه بین المللی درباره ماهیت این خطرات به توافق برسیم.
اما در وهله اول، در برپایی اجلاس، خود را به عنوان یک بازیگر اصلی در تعیین دستور کار برای «آنچه در مورد هوش مصنوعی صحبت میکنیم» قرار میدهد، و قطعاً یک زاویه اقتصادی نیز دارد.
سوناک خاطرنشان کرد: «با تبدیل کردن بریتانیا به یک رهبر جهانی در هوش مصنوعی ایمن، ما مشاغل و سرمایهگذاریهای جدیدی را که از این موج جدید فناوری به دست میآید جذب خواهیم کرد.» (و سایر بخشها نیز این یادداشت را دریافت کردهاند: وزیر کشور امروز رویدادی را با بنیاد واچ اینترنت و تعدادی از شرکتهای بزرگ اپلیکیشنهای مصرفکننده مانند TikTok و Snap برای مقابله با تکثیر تصاویر سوء استفاده جنسی تولید شده توسط هوش مصنوعی برگزار کرد.)
وجود فناوری بزرگ در اتاق ممکن است از یک جهت مفید به نظر برسد، اما منتقدان معمولاً آن را نیز به عنوان یک مشکل میبینند. «تسخیر نظارتی»، جایی که بازیگران قدرتمند صنعت گامهای پیشگیرانهای برای بحث و چارچوببندی ریسکها و حفاظتها برمیدارند، یکی دیگر از موضوعات مهم در دنیای جدید و شجاع هوش مصنوعی بوده است، و این هفته نیز بزرگ به نظر میرسد.
نایجل تون، مدیر عامل سازنده تراشه های هوش مصنوعی Graphcore، با زیرکی گفت: “در مورد رهبران فناوری هوش مصنوعی که دست های خود را بالا می اندازند و می گویند، “من را تنظیم کن، من را تنظیم کن” بسیار محتاط باشید. در مقاله خود درباره اجلاس سران که این هفته برگزار می شود، اشاره کرد. (اگرچه خودش فرینج نیست: خودش در این رویداد خواهد بود.)
در همین حال، بسیاری هنوز در حال بحث هستند که آیا ریسک وجودی یک تمرین فکری مفید در این مرحله است.
بن بروکس، مدیر سیاست عمومی هوش مصنوعی پایداری، گفت: «من فکر میکنم نحوه استفاده از مرز و هوش مصنوعی بهعنوان عصاهای لفاظی در سال گذشته، ما را به جایی رسانده است که بسیاری از مردم از فناوری میترسند. پانل در انجمن سلطنتی، جایی که او از آزمایش فکری «بیشینه ساز گیره کاغذ» – که در آن هوش مصنوعی مجموعه ای برای ایجاد گیره کاغذ بدون توجه به نیاز یا ایمنی انسان می تواند عملاً جهان را نابود کند – به عنوان نمونه ای از این رویکرد محدود کننده عمدی نام برد. «آنها به شرایطی فکر نمی کنند که در آن شما می توانید هوش مصنوعی را مستقر کنید. شما می توانید آن را با خیال راحت توسعه دهید. ما امیدواریم که این چیزی است که همه با آن کنار بیایند، این احساس که می توان این کار را انجام داد و می توان آن را با خیال راحت انجام داد.»
دیگران چندان مطمئن نیستند.
هابهان در آپولو ریسرچ گفت: «برای منصفانه بودن، من فکر میکنم که ریسکهای وجودی چندان بلندمدت نیستند. بیایید آنها را خطرات فاجعه بار بنامیم.» با در نظر گرفتن سرعت توسعهای که در سالهای اخیر شاهد آن بودهایم، که مدلهای زبانی بزرگ را از طریق برنامههای کاربردی هوش مصنوعی مولد به استفاده در جریان اصلی آورده است، او معتقد است که بزرگترین نگرانیها همچنان عاملان بدی هستند که از هوش مصنوعی استفاده میکنند نه اینکه هوش مصنوعی در حال اجرای شورش باشند: استفاده از آن در جنگ زیستی، در موقعیتهای امنیت ملی و اطلاعات نادرست که میتواند مسیر دموکراسی را تغییر دهد. به گفته او، همه اینها حوزه هایی هستند که به اعتقاد او هوش مصنوعی ممکن است نقش فاجعه باری ایفا کند.
«اینکه برندگان جایزه تورینگ در انظار عمومی در مورد خطرات وجودی و فاجعهبار آن نگران باشند. . . ما باید واقعاً به این موضوع فکر کنیم.»
چشم انداز کسب و کار
خطرات جدی برای یک طرف، بریتانیا همچنین امیدوار است که با میزبانی گفتگوهای بزرگتر در مورد هوش مصنوعی، به ایجاد کشور به عنوان یک خانه طبیعی برای تجارت هوش مصنوعی کمک کند. برخی تحلیلگران بر این باورند که راه سرمایه گذاری در آن، ممکن است آنطور که برخی پیش بینی می کنند هموار نباشد.
Avivah Litan، معاون تحلیلگر در می گوید: “من فکر می کنم واقعیت شروع به ظهور کرده است و شرکت ها شروع به درک می کنند که چقدر زمان و پول نیاز دارند تا به پروژه های هوش مصنوعی مولد اختصاص دهند تا به خروجی های قابل اعتمادی دست یابند که در واقع می تواند بهره وری و درآمد را افزایش دهد.” گارتنر. و حتی زمانی که پروژه های خود را به طور مکرر تنظیم و مهندسی می کنند، همچنان به نظارت انسانی بر عملیات و خروجی ها نیاز دارند. به بیان ساده، خروجی های GenAI هنوز به اندازه کافی قابل اعتماد نیستند و منابع قابل توجهی برای قابل اعتماد کردن آن مورد نیاز است. البته مدل ها همیشه در حال بهبود هستند، اما این وضعیت فعلی بازار است. با این حال، در همان زمان، ما شاهد پیشروی پروژههای بیشتر و بیشتری برای تولید هستیم.»
او معتقد است که سرمایهگذاریهای هوش مصنوعی «مطمئناً آن را برای شرکتها و سازمانهای دولتی که از آنها استفاده میکنند کند میکند. فروشندگان برنامهها و محصولات هوش مصنوعی خود را تحت فشار قرار میدهند، اما سازمانها نمیتوانند آنها را به همان سرعتی که تحت فشار قرار میدهند، بپذیرند. علاوه بر این، خطرات زیادی در ارتباط با برنامه های GenAI وجود دارد، برای مثال دسترسی دموکراتیک و آسان به اطلاعات محرمانه حتی در داخل یک سازمان.
همانطور که “تحول دیجیتال” در واقعیت بیشتر مفهومی آهسته سوز بوده است، استراتژی های سرمایه گذاری هوش مصنوعی نیز زمان بیشتری را برای کسب و کارها می گیرد. شرکتها به زمان نیاز دارند تا مجموعه دادههای ساختاریافته و بدون ساختار خود را قفل کنند و مجوزها را به درستی و مؤثر تنظیم کنند. اشتراک گذاری بیش از حد در یک شرکت وجود دارد که تا به حال اهمیت چندانی نداشت. اکنون هر کسی میتواند با استفاده از دستورات زبان مادری ساده، بهعنوان مثال انگلیسی، به فایلهای هر کسی که به اندازه کافی محافظت نشده است، دسترسی پیدا کند.
این واقعیت که منافع تجاری در مورد نحوه پیادهسازی هوش مصنوعی بسیار دور از نگرانیهای ایمنی و ریسک است که در پارک بلچلی مورد بحث قرار خواهد گرفت، از کار پیش رو و همچنین تنشها سخن میگوید. بر اساس گزارشها، در اواخر روز، سازماندهندگان Bletchley تلاش کردهاند تا دامنه را فراتر از بحث سطح بالا در مورد ایمنی گسترش دهند، تا جایی که ممکن است خطرات واقعاً ایجاد شود، مانند مراقبتهای بهداشتی، اگرچه این تغییر در دستور کار منتشر شده فعلی به تفصیل ذکر نشده است.
میزهای گردی با 100 یا بیشتر متخصص وجود خواهد داشت، بنابراین گروههای خیلی کوچکی نیستند و آنها میخواهند این نوع اسکن افق را انجام دهند. نف، پروفسور کمبریج، گفت و من یک منتقد هستم، اما این ایده چندان بد به نظر نمی رسد. اکنون، آیا مقررات جهانی به عنوان یک بحث مطرح می شود؟ قطعا نه. آیا قرار است روابط شرق و غرب را عادی کنیم؟ . . و جنگ سرد دومی که بین آمریکا و چین بر سر هوش مصنوعی در حال وقوع است؟ همچنین، احتمالا نه. اما ما به قله ای که داریم می رسیم. و من فکر می کنم فرصت های واقعا جالبی وجود دارد که می تواند از این لحظه بیرون بیاید.