نگاهی به آنچه در مورد هوش مصنوعی در بریتانیا می گذرد

امتیاز دهید post

وعده و دام هوش مصنوعی این روزها موضوع داغی است. برخی می‌گویند هوش مصنوعی ما را نجات می‌دهد: رفع مشکلات مخرب سلامتی، رفع شکاف‌های دیجیتال در آموزش و انجام کارهای خوب دیگر در حال انجام است. دیگران از تهدیداتی که در جنگ، امنیت، اطلاعات نادرست و غیره ایجاد می کند، نگران هستند. همچنین به یک انحراف بسیار محبوب برای مردم عادی و زنگ خطر در تجارت تبدیل شده است.

هوش مصنوعی بسیار زیاد است، اما (هنوز) نتوانسته است جای سر و صدای اتاق‌های پر از مردمی که با هم صحبت می‌کنند را بگیرد. و این هفته، تعداد زیادی از دانشگاهیان، تنظیم‌کننده‌ها، روسای دولت، استارت‌آپ‌ها، بازیگران فناوری بزرگ و ده‌ها سازمان انتفاعی و غیرانتفاعی در بریتانیا گرد هم می‌آیند تا همین کار را انجام دهند و در مورد هوش مصنوعی صحبت کنند.

چرا انگلستان؟ چرا حالا؟

در روزهای چهارشنبه و پنجشنبه، بریتانیا میزبان چیزی است که به عنوان اولین رویداد در نوع خود توصیف کرده است، “اجلاس ایمنی هوش مصنوعی” در بلچلی پارک، مکان تاریخی که زمانی خانه کدشکن های جنگ جهانی دوم بود و اکنون موزه ملی را در خود جای داده است. از محاسبات

ماه ها در برنامه ریزی، هدف اجلاس بررسی برخی از سوالات بلندمدت و خطرات هوش مصنوعی است. اهداف به جای مشخص، آرمان گرایانه هستند: “درکی مشترک از خطرات ناشی از هوش مصنوعی مرزی و نیاز به اقدام”، “فرآیند رو به جلو برای همکاری بین المللی در مورد ایمنی هوش مصنوعی مرزی، از جمله بهترین روش برای حمایت از چارچوب های ملی و بین المللی،” اقدامات مناسبی که سازمان‌های فردی باید برای افزایش ایمنی هوش مصنوعی مرزی انجام دهند و غیره.

این آرزوی سطح بالا در افرادی که شرکت می کنند نیز منعکس می شود: مقامات عالی رتبه دولتی، کاپیتان های صنعت، و متفکران برجسته در این فضا از جمله کسانی هستند که انتظار می رود در آن شرکت کنند. (آخرین ورود دیرهنگام: ایلان ماسک؛ گزارش شده است که آخرین نه شامل رئیس جمهور بایدن، جاستین ترودو و اولاف شولز می شود.)

به نظر منحصر به فرد می رسد، و این است: «بلیت های طلایی» (همانطور که اعظم ازهر، بنیانگذار و نویسنده فناوری مستقر در لندن، آنها را توصیف می کند) به اجلاس سران کمیاب است. مکالمات کوچک و بیشتر بسته خواهد بود. بنابراین از آنجایی که طبیعت از خلاء متنفر است، مجموعه کاملی از رویدادها و تحولات خبری دیگر در اطراف اجلاس سران پدید آمده است که در بسیاری از موضوعات و ذینفعان در حال بازی حلقه می زند. اینها شامل گفتگوهایی در انجمن سلطنتی (آکادمی ملی علوم بریتانیا) بوده است. کنفرانس بزرگ “AI Fringe” که در طول هفته در چندین شهر برگزار می شود. بسیاری از اطلاعیه های گروه های ضربت؛ و بیشتر.

جینا نف، مدیر اجرایی مرکز فناوری و دموکراسی میندرو در دانشگاه کمبریج که هفته گذشته در یک میزگرد عصرانه درباره علم و ایمنی در انجمن سلطنتی صحبت می کرد، گفت: «ما همان اجلاسی را انجام خواهیم داد که به ما رسیده است. . به عبارت دیگر، رویداد در بلچلی همان کاری را که انجام می‌دهد انجام می‌دهد، و هر چیزی که در حیطه کاری نیست، فرصتی می‌شود تا مردم سر خود را جمع کنند و در مورد بقیه صحبت کنند.

پنل نف نمونه مناسبی از آن بود: در سالنی مملو از انجمن سلطنتی، او در کنار نماینده ای از دیده بان حقوق بشر، یک افسر ملی از اتحادیه بزرگ اتحادیه، بنیانگذار موسسه جهانی فناوری، یک اتاق فکر متمرکز نشسته بود. در مورد ارزش فناوری در جنوب جهانی، رئیس سیاست عمومی استارت آپ Stability AI و یک دانشمند کامپیوتر از کمبریج.

در همین حال، ممکن است بگویید که AI Fringe فقط در نام است. با اجلاس بلچلی در اواسط هفته و در یک مکان، و با فهرست مهمانان بسیار محدود و دسترسی به همان اندازه محدود به موارد مورد بحث، AI Fringe به سرعت در دستور کار بلچلی قرار گرفت و آن را تکمیل کرد. ، به معنای واقعی کلمه و مجازی. نه توسط دولت، بلکه توسط یک شرکت روابط عمومی با ارتباط خوب به نام Milltown Partners که نماینده شرکت هایی مانند DeepMind، Stripe و VC Atomico است، سازماندهی شده است. به صورت حضوری برای کسانی که می‌توانستند بلیت بگیرند – بسیاری از رویدادها فروخته شد – و با اجزای پخش برای بسیاری از بخش‌های آن.

حتی با وجود انبوه رویدادها، و حسن نیتی که در رویدادهایی که تا به حال در مورد آن اتفاق افتاده بودیم، برای مردم بسیار دردناک بود که بحث در مورد هوش مصنوعی، همان طور که در حال ظهور است، همچنان تقسیم شده است: یک کنفرانس در راهروها. قدرت (جایی که بیشتر جلسات فقط برای مهمانان دعوت شده بسته خواهد بود) و دیگری برای بقیه.

اوایل امروز، گروهی متشکل از 100 اتحادیه کارگری و فعال حقوق بشر نامه‌ای به نخست‌وزیر ارسال کردند و گفتند که دولت صدای آنها را در گفت‌وگو با عدم شرکت آنها در رویداد بلچلی پارک “فشار” می‌کند. (آنها ممکن است بلیت طلایی خود را نگرفته باشند، اما قطعاً با احتیاط مخالفت کردند: این گروه نامه خود را با به اشتراک گذاشتن آن با فایننشال تایمز، نخبه ترین نشریات اقتصادی در کشور، عمومی کرد.)

و افراد عادی تنها کسانی نیستند که مورد بی مهری قرار گرفته اند. Carissa Véliz، معلم فلسفه در دانشگاه آکسفورد، در یکی از رویدادهای AI Fringe امروز گفت: “هیچ یک از افرادی که من می شناسم دعوت نشده اند.”

برخی بر این باورند که کارآمدسازی یک مزیت دارد.

ماریوس هابهان، دانشمند تحقیقاتی هوش مصنوعی که همچنین یکی از بنیانگذاران و رئیس آپولو ریسرچ، استارت آپی است که ابزارهای ایمنی هوش مصنوعی را می سازد، معتقد است که اعداد کوچکتر نیز می توانند تمرکز بیشتری ایجاد کنند: «هرچه افراد بیشتری در اتاق داشته باشید، کار سخت تر می شود. به هر نتیجه ای می رسیم یا بحث های موثری خواهیم داشت.»

به طور گسترده تر، اجلاس به یک لنگر تبدیل شده است و تنها بخشی از گفتگوهای بزرگ در حال حاضر در جریان است. هفته گذشته، نخست‌وزیر بریتانیا، ریشی سوناک، قصد راه‌اندازی یک موسسه جدید ایمنی هوش مصنوعی و یک شبکه تحقیقاتی در بریتانیا را برای صرف زمان و تفکر بیشتر برای مفاهیم هوش مصنوعی بیان کرد. گروهی از دانشگاهیان برجسته، به رهبری یوشوا بنجیو و جفری هینتون، مقاله‌ای به نام «مدیریت ریسک‌های هوش مصنوعی در عصر پیشرفت سریع» منتشر کردند تا پارو جمعی خود را در آب بگذارند. و سازمان ملل متحد کارگروه خود را برای بررسی پیامدهای هوش مصنوعی اعلام کرد. امروز، جو بایدن، رئیس‌جمهور ایالات متحده، دستور اجرایی این کشور را برای تعیین استانداردهایی برای امنیت و ایمنی هوش مصنوعی صادر کرد.

“خطر وجودی”

یکی از بزرگ‌ترین بحث‌ها در مورد اینکه آیا ایده هوش مصنوعی که «خطر وجودی» ایجاد می‌کند، بیش از حد مورد بحث قرار گرفته است یا خیر، شاید حتی عمداً برای حذف نظارت بر فعالیت‌های فوری‌تر هوش مصنوعی مطرح شده است.

مت کلی، استاد ریاضیات سیستم ها در دانشگاه کمبریج، خاطرنشان کرد: یکی از زمینه هایی که بسیار مورد استناد قرار می گیرد، اطلاعات نادرست است.

«اطلاعات غلط جدید نیست. این حتی برای این قرن یا قرن گذشته هم جدید نیست.» او هفته گذشته در مصاحبه ای گفت. اما این یکی از زمینه‌هایی است که فکر می‌کنیم هوش مصنوعی در کوتاه‌مدت و میان‌مدت خطرات بالقوه‌ای به همراه دارد. و این خطرات در طول زمان به آرامی در حال توسعه هستند. کلی یکی از اعضای انجمن سلطنتی علم است که – در پیش از اجلاس سران – یک تمرین تیمی قرمز/آبی را نیز اجرا کرد که به طور خاص بر اطلاعات نادرست در علم تمرکز داشت تا ببیند که مدل‌های زبانی بزرگ در هنگام تلاش چگونه عمل می‌کنند. او گفت که برای رقابت با یکدیگر. “این تلاشی است برای تلاش و درک بهتر خطرات در حال حاضر.”

به نظر می رسد دولت بریتانیا در هر دو طرف این بحث بازی می کند. عنصر آسیب به طور واضح تر از نام رویدادی که برگزار می کند، یعنی نشست ایمنی هوش مصنوعی، بیان شده است.

سوناک در سخنرانی هفته گذشته خود گفت: «در حال حاضر، ما درک مشترکی از خطراتی که با آن روبرو هستیم نداریم. و بدون آن، ما نمی‌توانیم امیدوار باشیم که با هم برای رسیدگی به آنها کار کنیم. به همین دلیل است که ما سخت تلاش خواهیم کرد تا بر سر اولین بیانیه بین المللی درباره ماهیت این خطرات به توافق برسیم.

اما در وهله اول، در برپایی اجلاس، خود را به عنوان یک بازیگر اصلی در تعیین دستور کار برای «آنچه در مورد هوش مصنوعی صحبت می‌کنیم» قرار می‌دهد، و قطعاً یک زاویه اقتصادی نیز دارد.

سوناک خاطرنشان کرد: «با تبدیل کردن بریتانیا به یک رهبر جهانی در هوش مصنوعی ایمن، ما مشاغل و سرمایه‌گذاری‌های جدیدی را که از این موج جدید فناوری به دست می‌آید جذب خواهیم کرد.» (و سایر بخش‌ها نیز این یادداشت را دریافت کرده‌اند: وزیر کشور امروز رویدادی را با بنیاد واچ اینترنت و تعدادی از شرکت‌های بزرگ اپلیکیشن‌های مصرف‌کننده مانند TikTok و Snap برای مقابله با تکثیر تصاویر سوء استفاده جنسی تولید شده توسط هوش مصنوعی برگزار کرد.)

وجود فناوری بزرگ در اتاق ممکن است از یک جهت مفید به نظر برسد، اما منتقدان معمولاً آن را نیز به عنوان یک مشکل می‌بینند. «تسخیر نظارتی»، جایی که بازیگران قدرتمند صنعت گام‌های پیشگیرانه‌ای برای بحث و چارچوب‌بندی ریسک‌ها و حفاظت‌ها برمی‌دارند، یکی دیگر از موضوعات مهم در دنیای جدید و شجاع هوش مصنوعی بوده است، و این هفته نیز بزرگ به نظر می‌رسد.

نایجل تون، مدیر عامل سازنده تراشه های هوش مصنوعی Graphcore، با زیرکی گفت: “در مورد رهبران فناوری هوش مصنوعی که دست های خود را بالا می اندازند و می گویند، “من را تنظیم کن، من را تنظیم کن” بسیار محتاط باشید. در مقاله خود درباره اجلاس سران که این هفته برگزار می شود، اشاره کرد. (اگرچه خودش فرینج نیست: خودش در این رویداد خواهد بود.)

در همین حال، بسیاری هنوز در حال بحث هستند که آیا ریسک وجودی یک تمرین فکری مفید در این مرحله است.

بن بروکس، مدیر سیاست عمومی هوش مصنوعی پایداری، گفت: «من فکر می‌کنم نحوه استفاده از مرز و هوش مصنوعی به‌عنوان عصاهای لفاظی در سال گذشته، ما را به جایی رسانده است که بسیاری از مردم از فناوری می‌ترسند. پانل در انجمن سلطنتی، جایی که او از آزمایش فکری «بیشینه ساز گیره کاغذ» – که در آن هوش مصنوعی مجموعه ای برای ایجاد گیره کاغذ بدون توجه به نیاز یا ایمنی انسان می تواند عملاً جهان را نابود کند – به عنوان نمونه ای از این رویکرد محدود کننده عمدی نام برد. «آنها به شرایطی فکر نمی کنند که در آن شما می توانید هوش مصنوعی را مستقر کنید. شما می توانید آن را با خیال راحت توسعه دهید. ما امیدواریم که این چیزی است که همه با آن کنار بیایند، این احساس که می توان این کار را انجام داد و می توان آن را با خیال راحت انجام داد.»

دیگران چندان مطمئن نیستند.

هابهان در آپولو ریسرچ گفت: «برای منصفانه بودن، من فکر می‌کنم که ریسک‌های وجودی چندان بلندمدت نیستند. بیایید آنها را خطرات فاجعه بار بنامیم.» با در نظر گرفتن سرعت توسعه‌ای که در سال‌های اخیر شاهد آن بوده‌ایم، که مدل‌های زبانی بزرگ را از طریق برنامه‌های کاربردی هوش مصنوعی مولد به استفاده در جریان اصلی آورده است، او معتقد است که بزرگترین نگرانی‌ها همچنان عاملان بدی هستند که از هوش مصنوعی استفاده می‌کنند نه اینکه هوش مصنوعی در حال اجرای شورش باشند: استفاده از آن در جنگ زیستی، در موقعیت‌های امنیت ملی و اطلاعات نادرست که می‌تواند مسیر دموکراسی را تغییر دهد. به گفته او، همه اینها حوزه هایی هستند که به اعتقاد او هوش مصنوعی ممکن است نقش فاجعه باری ایفا کند.

«اینکه برندگان جایزه تورینگ در انظار عمومی در مورد خطرات وجودی و فاجعه‌بار آن نگران باشند. . . ما باید واقعاً به این موضوع فکر کنیم.»

چشم انداز کسب و کار

خطرات جدی برای یک طرف، بریتانیا همچنین امیدوار است که با میزبانی گفتگوهای بزرگتر در مورد هوش مصنوعی، به ایجاد کشور به عنوان یک خانه طبیعی برای تجارت هوش مصنوعی کمک کند. برخی تحلیلگران بر این باورند که راه سرمایه گذاری در آن، ممکن است آنطور که برخی پیش بینی می کنند هموار نباشد.

Avivah Litan، معاون تحلیلگر در می گوید: “من فکر می کنم واقعیت شروع به ظهور کرده است و شرکت ها شروع به درک می کنند که چقدر زمان و پول نیاز دارند تا به پروژه های هوش مصنوعی مولد اختصاص دهند تا به خروجی های قابل اعتمادی دست یابند که در واقع می تواند بهره وری و درآمد را افزایش دهد.” گارتنر. و حتی زمانی که پروژه های خود را به طور مکرر تنظیم و مهندسی می کنند، همچنان به نظارت انسانی بر عملیات و خروجی ها نیاز دارند. به بیان ساده، خروجی های GenAI هنوز به اندازه کافی قابل اعتماد نیستند و منابع قابل توجهی برای قابل اعتماد کردن آن مورد نیاز است. البته مدل ها همیشه در حال بهبود هستند، اما این وضعیت فعلی بازار است. با این حال، در همان زمان، ما شاهد پیشروی پروژه‌های بیشتر و بیشتری برای تولید هستیم.»

او معتقد است که سرمایه‌گذاری‌های هوش مصنوعی «مطمئناً آن را برای شرکت‌ها و سازمان‌های دولتی که از آنها استفاده می‌کنند کند می‌کند. فروشندگان برنامه‌ها و محصولات هوش مصنوعی خود را تحت فشار قرار می‌دهند، اما سازمان‌ها نمی‌توانند آن‌ها را به همان سرعتی که تحت فشار قرار می‌دهند، بپذیرند. علاوه بر این، خطرات زیادی در ارتباط با برنامه های GenAI وجود دارد، برای مثال دسترسی دموکراتیک و آسان به اطلاعات محرمانه حتی در داخل یک سازمان.

همانطور که “تحول دیجیتال” در واقعیت بیشتر مفهومی آهسته سوز بوده است، استراتژی های سرمایه گذاری هوش مصنوعی نیز زمان بیشتری را برای کسب و کارها می گیرد. شرکت‌ها به زمان نیاز دارند تا مجموعه داده‌های ساختاریافته و بدون ساختار خود را قفل کنند و مجوزها را به درستی و مؤثر تنظیم کنند. اشتراک گذاری بیش از حد در یک شرکت وجود دارد که تا به حال اهمیت چندانی نداشت. اکنون هر کسی می‌تواند با استفاده از دستورات زبان مادری ساده، به‌عنوان مثال انگلیسی، به فایل‌های هر کسی که به اندازه کافی محافظت نشده است، دسترسی پیدا کند.

این واقعیت که منافع تجاری در مورد نحوه پیاده‌سازی هوش مصنوعی بسیار دور از نگرانی‌های ایمنی و ریسک است که در پارک بلچلی مورد بحث قرار خواهد گرفت، از کار پیش رو و همچنین تنش‌ها سخن می‌گوید. بر اساس گزارش‌ها، در اواخر روز، سازمان‌دهندگان Bletchley تلاش کرده‌اند تا دامنه را فراتر از بحث سطح بالا در مورد ایمنی گسترش دهند، تا جایی که ممکن است خطرات واقعاً ایجاد شود، مانند مراقبت‌های بهداشتی، اگرچه این تغییر در دستور کار منتشر شده فعلی به تفصیل ذکر نشده است.

میزهای گردی با 100 یا بیشتر متخصص وجود خواهد داشت، بنابراین گروه‌های خیلی کوچکی نیستند و آن‌ها می‌خواهند این نوع اسکن افق را انجام دهند. نف، پروفسور کمبریج، گفت و من یک منتقد هستم، اما این ایده چندان بد به نظر نمی رسد. اکنون، آیا مقررات جهانی به عنوان یک بحث مطرح می شود؟ قطعا نه. آیا قرار است روابط شرق و غرب را عادی کنیم؟ . . و جنگ سرد دومی که بین آمریکا و چین بر سر هوش مصنوعی در حال وقوع است؟ همچنین، احتمالا نه. اما ما به قله ای که داریم می رسیم. و من فکر می کنم فرصت های واقعا جالبی وجود دارد که می تواند از این لحظه بیرون بیاید.

مطالب مرتبط