بزرگترین نگرانی ایلان ماسک
در سال ۲۰۱۷، در جلسه انجمن ملی فرمانداران، او اظهار داشت که “ترسناک ترین مشکل” هوش مصنوعی است – اختراعی که می تواند یک “خطر اساسی وجودی برای تمدن بشری” باشد.
به نظر میرسد که ماسک برای سالها با خطرات هوش مصنوعی هماهنگ بودهاست. در سال ۲۰۱۴، او به دانشجویان دانشگاه MIT گفت: ” من به طور فزایندهای تمایل دارم که فکر کنم باید برخی نظارتهای قانونی شاید در سطح ملی و بینالمللی وجود داشته باشد، ، فقط برای اینکه مطمئن شویم کار احمقانه ای انجام نمیدهیم.”
بنابراین ممکن است به نظر برسد که ماسک در نحوه استقرار AI توسط شرکتهایش و اینکه چقدر با دقت در دستورالعملها باقی میمانند، بسیار محتاط خواهد بود.
لزوما این گونه نیست. ماسک یک بازیگر بزرگ در هوش مصنوعی است که بخشی از تجارت اتومبیلش است. الون ماسک تسلا را بزرگترین شرکت روباتیک جهان میداند. او سال گذشته در یک سخنرانی برای “روز عفو بینالملل” که این شرکت برگزار کرد گفت: ” اتومبیلهای ما روباتهای نیمه حساس بر روی چرخها هستند.” او در این رویداد همچنین طرحهایی برای ساخت یک روبات نمونه زمانی در سال ۲۰۲۲ را اعلام کرد. او گفت که این ربات برای دوستانه بودن و از بین بردن “کارهای خطرناک، تکراری و خستهکننده” در نظر گرفته شدهاست. او گفت که ربات را به اندازه کافی کند خواهد کرد تا از آن فرار کند و به اندازه کافی ضعیف خواهد بود تا بتواند بر آن غلبه کند.
با توجه به نامه ۲۰۲۱ اکتبر جنیفر هوماندی، رئیس آژانس، تسلا در طول سالها نه تنها سیستمهای خلبان خودکار طراحیشده توسط AI را فراتر از آنچه تنظیم کنندگان هیات امنیت حمل و نقل ملی میگویند محتاطانه است، بلکه بیش از چهار سال است که موفق به “اجرای توصیههای حیاتی ایمنی NTSB” نشده است. و همانطور که فورچون در ماه فوریه گزارش داد، نورآلینک، یک شرکت نوپای مغزی که ماسک نیز اداره میکند، ممکن است تنظیم کنندگان فدرال را در مورد نقش خود گمراه کرده باشد. ماسک میگوید که میخواهد تراشههای عصبی لینک به انسانها کمک کنند تا به “همزیستی با هوش مصنوعی” دست یابند.
تمایل موسکینک به پیروی از مقررات اوراق بهادار مسائل گسترده تری را در مورد اینکه چگونه نورلینک ممکن است با مقررات برای واسطهای مغز – کامپیوتر که متخصصان مدعی هستند نیاز فوری به نوشتن دارند، مطابقت داشته باشد، مطرح میکند.
امانوئل ماس، یک محقق فوقدکترا در موسسه فنآوری کورنل و موسسه تحقیقات جامعه اطلاعاتی، گفت: ” این موسسه به نفع ماسک است تا جایگاه خود و شرکتهایش را به بهترین نحو مشخص کند تا بتواند به ریسکهای موجود در اطراف AI بپردازد.”
ماسک میگوید که شرکتهای وی ” معدود شرکتهایی هستند که قادر به رسیدگی به خطرات AI به شیوهای فنی دقیق یا قدرتمند هستند.” اما ماسک گفت: ” میخواهد یک جعبه براق بفروشد که مشکلات را حل کند. او فکر میکند که راهحلهای فنی برای آنچه که در واقع مشکلات اجتماعی است وجود دارد.
این دیدگاه آلکس جان لندن، مدیر مرکز اخلاق و سیاست در دانشگاه کارنگی ملون نیز هست، که گفت: ” هشدارهایی در مورد هوش مصنوعی باعث میشود که صنعت از نظر اجتماعی با اهمیت به نظر برسد و اغلب پوشش پنجره به معنای ایجاد اعتماد بدون تضمین آن اعتماد است.”
جیانکلادیو مالگیری، استاد دانشکده تجارت EDHEC در لیل که مقررات هوش مصنوعی و تصمیمگیری خودکار را مطالعه میکند، گفت که او استراتژی بازاریابی ماسکی را “داشتن هوش مصنوعی به عنوان تقویت بشریت و نه جایگزینی بشریت” میبیند.
اما این تمایز روشن نیست. مالجریری گفت: ” مردمی که ۵۰ سال پیش زنده بودند، از یادگیری این که چه مقدار از ظرفیت ذهنی ما را به AI داده بودیم، متعجب میشدند. AI فکر میکند که اکنون چقدر آسان است که حقایق پایه گوگل را در نظر بگیریم یا به GPS و AI تکیه کنیم تا مسیری را برای خانه دوستان پیدا کنیم، یا اینکه چقدر توصیههای الگوریتمی اکنون اولویتهای موسیقی مردم را شکل میدهد.
بلافاصله قبل از این که ماسک از بلندپروازیهای رباتی تسلا در روز AI صحبت کند، فردی که کت و شلوار بدن سفید تنگ و ماسک سیاه با صورت سفید پوشیده بود، به طور جدی به روی صحنه رفت، انگار که تلاش میکرد مخاطبان را فریب دهد و فکر کند که آنها یک ربات بسیار توانا هستند، قبل از این که دیوانهوار به موسیقی الکترونیک برقصند. این یک تلاش تکاندهنده برای محو کردن خطوط بین انسان و ربات است.
مگلیری افسانه قورباغه را در نعلبکی پر از آب که به آرامی به جوش میآید بازگو کرد و قورباغه زمانی متوجه میشود که دیگر دیر شده است. او با حیرت میگفت: ” چه وقت ما شروع میکنیم که انسانیت خود را به ماشینها واگذاریم؟
ماسک در رویداد روز عفو بینالملل گفت که او میخواهد بتواند از یک ربات بخواهد که به مغازه برود تا خواربار جمع کند. سوالی که (مگلیری)دارد این است: وقتی رباتها خرید میکنند چه چیزی از دست میرود؟
یک پیغام از کامکست:
به آمریکاییها کمک کنید تا بیشترین استفاده را از اینترنت بکنند. ناوبری دیجیتال بخش مهمی از زیرساختهای باند وسیع هستند. یاد بگیرید که چرا کمکست از تامین مالی این رهنمودهایی که مهارتهای دیجیتال را در جوامع سراسر کشور آموزش میدهند، حمایت میکند.
کمی سر و صدا
جشنواره ۲۰۲۲ موزیلا فعالیتهای فنی این سازمان را به نمایش گذاشت. همانطور که ما هفته گذشته در DFD پوشش دادیم، اروپا مایلها جلوتر از ایالاتمتحده است وقتی بحث بر سر قرار دادن موانع قانونی در جای خود حول هوش مصنوعی است. یکی از گروههای دره سیلیکون که تخصص خود را در اختیار قانون گذاران و قانون گذاران قرار میدهد، بنیاد موزیلا است، که روز دوشنبه یک وبلاگ منتشر کرد که در آن توصیههایی برای قانون AI دور از دسترس اتحادیه ارائه شدهبود.
این پست که توسط مدیر اجرایی موزیلا، مارک سورمن و محقق ارشد سیاست، ماکسیمیلیان گهنتز نوشته شدهاست، به سه حوزه اصلی اشاره میکند که در آنها عمل نوشته شده در حال حاضر میتواند بهبود یابد: تعادل پاسخگویی برای استفاده مسئولانه AI بین توسعه دهندگان و کاربران آن؛ نوشتن الزامات افشای دقیقتر حول استفاده از تکنولوژیهای به اصطلاح “با ریسک بالا” AI، و ایجاد ابزاری برای کاربران نهایی برای پر کردن شکایات در مورد سو استفاده درک شده آنها.
سورمان گفت: ” تکنولوژیهایی که به طور بالقوه خنثی هستند، یا ممکن است خود را دچار سوگیری کنند، اما طراحی آنها به معنای یک فعالیت ذاتا پرخطر نیست، که هنوز هم میتواند برای اهداف پرخطر یا اهداف کمخطر مورد استفاده قرار گیرد.” ” ما نقش خود را میبینیم، ما نیاز به کمیسیون برای کشتی گرفتن با سوالات عملی در مورد چگونگی مقابله با آن را میبینیم؛ ما فکر میکنیم که در حال حاضر این اقدام بسیار ساده است.”
محققان توصیه کردند که قانونگذاران اتحادیه اروپا “اثبات آینده” این لایحه را با گسترش دامنه آن برای جلوگیری از آسیبهای بالقوه ناشی از هوش مصنوعی که ممکن است هنوز وجود نداشته باشند، تصویب نکنند.
آنها هشت حوزه را تعریف میکنند که می توان آنها را اصلاح کرد.” این امر به طور غیر ضروری فضا را برای مانور دادن برای کمیسیون و قانونگذاران اروپایی در آینده محدود میکند. فقط به این دلیل که ما در حال حاضر نمیدانیم که چیزی ممکن است خطرناک باشد و ممکن است به مردم آسیب برساند، به این معنی نیست که دو یا سه سال دیگر ممکن است تغییر نکند.”
سورمن و گهنتز گفتند که قانونگذاران اروپایی تا حد زیادی پذیرای توصیههای خود بودهاند، و با ادامه روند طولانی قانون گذاری، همچنان به ارائه تخصص ادامه خواهند داد.
(قانون خدمات دیجیتال اخیرا در اصل توسط قانون گذاران اتحادیه اروپا برای اولین بار در دسامبر ۲۰۲۰ پیشنهاد شد.) همانطور که با این قانون و سایر قوانین پیشگام حریم خصوصی دادهها در اروپا، تعجب نکنید اگر بحثهای امروز در بروکسل بر سر انتشار AI دوباره در واشنگتن مطرح شود. – درک رابرتسون
برای ثبت
پس از مورد روز جمعه در مورد ارتباط بین شرکت مستقل مجلس سنای ورمونت و دنیای ترامپ، کمپین پیرس در بیانیهای که امروز منتشر شد، گفت که او راههایی را با تیم دستیاران ترامپ در مورد “تفاوتهای ایدئولوژیکی” جدا کردهاست. پیرس گفت که علاوه بر استیو بانون، او با بیل دبلازیو در سنا مشورت کردهاست و اینکه کمپین او اکنون با تیمی مستقل و متشکل از اعضای حزب دموکرات و حزب دموکرات کار میکند. – بن شرکینگر
عصرانه
زودباوری مصنوعی؟ یک واقعیت نگرانکننده در مورد AI پدیدار میشود: درست مانند یادگیری ماشینی که میتواند الگوهایی را که انسانها نمیتوانند تشخیص دهند، همچنین میتواند به روشهایی فریب بخورد که هرگز یک فرد را گول نزند.
این فقط یک نظر نیست: هفته گذشته در یک رشته تاحدودی نگرانکننده در توییتر، نویسنده “دکترین توری” یک لیست لباس شویی از نمونههایی از این که چگونه الگوریتم های یادگیری ماشین توسط محققان فریب دادهشده و دستکاری شدهاند، تهیه کرد، گاهی اوقات به شیوهای خام و ساده با مفاهیم بالقوه خطرناک: یک تیم چینی نشان داد که آنها میتوانند مربعهای کوچک نور مادونقرمز را بر روی هر چهره نقاشی کنند و یک سیستم تشخیص چهره ایجاد کنند که فکر کند هر چهره دیگری است.”
حملهای که صداهای غیرقابل شنیدن را به اتاقی اضافه میکرد که تنها یک گوینده باهوش میتوانست بشنود و بر روی آن اقدام کند.”
تیمی از تورنتو متوجه شدند که یک طبقهبندی کننده که همه چیز را در یک اتاق نشیمن معمولی به طور قابل اعتمادی شناسایی کرده بود، وقتی یک فیل به اتاق اضافه کرد کاملا گیج شد.”
در سال ۲۰۱۹، یک تیم تنسنت نشان داد که آنها میتوانند با اضافه کردن نوارهای کوچک و بیضرر نوار به سطح جاده، خلبان تسلات را به عبور از میانه منحرف کنند.”
در این رشته، که او به عنوان یک پست وبلاگ نیز گردآوری کردهاست، داتورو مقاله اخیر خود را که نشان میدهد چگونه این دادههای “نمونههای مخالف” که زمانی که به یک سیستم یادگیری ماشینی معرفی میشوند، باعث میشوند که نقص ایجاد شود را می توان به هر سیستمی اضافه کرد، برای هر هدفی و آنها را می توان برای هر کسی که نمیدانست کجا را نگاه کند، غیرقابلتشخیص دانست.
به عبارت دیگر، اگر شما یک سیستم بازشناسی چهره را با یک میلیارد چهره آموزش دهید، میتوانید هر چهره را به گونهای تغییر دهید که برای چشم انسان غیرقابلتشخیص باشد، به طوری که با هر یک از آن چهرهها مطابقت داشته باشد.” ” به همین ترتیب، شما میتوانید یک سیستم یادگیری ماشینی را برای گرفتن وام بانکی آموزش دهید، و مهاجم میتواند یک برنامه وام را به شیوهای تغییر دهد که یک ناظر انسانی نتواند آن را تشخیص دهد، به طوری که سیستم همیشه وام را تایید کند.” – درک رابرتسون