بزرگ‌ترین نگرانی ایلان ماسک

بزرگ‌ترین نگرانی ایلان ماسک

بزرگ‌ترین نگرانی ایلان ماسک

در سال ۲۰۱۷، در جلسه انجمن ملی فرمانداران، او اظهار داشت که “ترسناک ترین مشکل” هوش مصنوعی است – اختراعی که می تواند یک “خطر اساسی وجودی برای تمدن بشری” باشد.

به نظر می‌رسد که ماسک برای سال‌ها با خطرات هوش مصنوعی هماهنگ بوده‌است. در سال ۲۰۱۴، او به دانشجویان دانشگاه MIT گفت: ” من به طور فزاینده‌ای تمایل دارم که فکر کنم باید برخی نظارت‌های قانونی شاید در سطح ملی و بین‌المللی وجود داشته باشد، ، فقط برای اینکه مطمئن شویم کار احمقانه ای انجام نمی‌دهیم.”

بنابراین ممکن است به نظر برسد که ماسک در نحوه استقرار AI توسط شرکت‌هایش و اینکه چقدر با دقت در دستورالعمل‌ها باقی می‌مانند، بسیار محتاط خواهد بود.

لزوما این گونه نیست. ماسک یک بازیگر بزرگ در هوش مصنوعی است که بخشی از تجارت اتومبیلش است. الون ماسک تسلا را بزرگ‌ترین شرکت روباتیک جهان می‌داند. او سال گذشته در یک سخنرانی برای “روز عفو بین‌الملل” که این شرکت برگزار کرد گفت: ” اتومبیل‌های ما روبات‌های نیمه حساس بر روی چرخ‌ها هستند.” او در این رویداد همچنین طرح‌هایی برای ساخت یک روبات نمونه زمانی در سال ۲۰۲۲ را اعلام کرد. او گفت که این ربات برای دوستانه بودن و از بین بردن “کاره‌ای خطرناک، تکراری و خسته‌کننده” در نظر گرفته شده‌است. او گفت که ربات را به اندازه کافی کند خواهد کرد تا از آن فرار کند و به اندازه کافی ضعیف خواهد بود تا بتواند بر آن غلبه کند.

با توجه به نامه ۲۰۲۱ اکتبر جنیفر هوماندی، رئیس آژانس، تسلا در طول سال‌ها نه تنها سیستم‌های خلبان خودکار طراحی‌شده توسط AI را فراتر از آنچه تنظیم کنندگان هیات امنیت حمل و نقل ملی می‌گویند محتاطانه است، بلکه بیش از چهار سال است که موفق به “اجرای توصیه‌های حیاتی ایمنی NTSB” نشده است. و همانطور که فورچون در ماه فوریه گزارش داد، نورآلینک، یک شرکت نوپای مغزی که ماسک نیز اداره می‌کند، ممکن است تنظیم کنندگان فدرال را در مورد نقش خود گمراه کرده باشد. ماسک می‌گوید که می‌خواهد تراشه‌های عصبی لینک به انسان‌ها کمک کنند تا به “هم‌زیستی با هوش مصنوعی” دست یابند.

تمایل موسکینک به پیروی از مقررات اوراق بهادار مسائل گسترده تری را در مورد اینکه چگونه نورلینک ممکن است با مقررات برای واسط‌های مغز – کامپیوتر که متخصصان مدعی هستند نیاز فوری به نوشتن دارند، مطابقت داشته باشد، مطرح می‌کند.

امانوئل ماس، یک محقق فوق‌دکترا در موسسه فن‌آوری کورنل و موسسه تحقیقات جامعه اطلاعاتی، گفت: ” این موسسه به نفع ماسک است تا جایگاه خود و شرکت‌هایش را به بهترین نحو مشخص کند تا بتواند به ریسک‌های موجود در اطراف AI بپردازد.”

ماسک می‌گوید که شرکت‌های وی ” معدود شرکت‌هایی هستند که قادر به رسیدگی به خطرات AI به شیوه‌ای فنی دقیق یا قدرتمند هستند.” اما ماسک گفت: ” می‌خواهد یک جعبه براق بفروشد که مشکلات را حل کند. او فکر می‌کند که راه‌حل‌های فنی برای آنچه که در واقع مشکلات اجتماعی است وجود دارد.

این دیدگاه آلکس جان لندن، مدیر مرکز اخلاق و سیاست در دانشگاه کارنگی ملون نیز هست، که گفت: ” هشدارهایی در مورد هوش مصنوعی باعث می‌شود که صنعت از نظر اجتماعی با اهمیت به نظر برسد و اغلب پوشش پنجره به معنای ایجاد اعتماد بدون تضمین آن اعتماد است.”

جیانکلادیو مالگیری، استاد دانشکده تجارت EDHEC در لیل که مقررات هوش مصنوعی و تصمیم‌گیری خودکار را مطالعه می‌کند، گفت که او استراتژی بازاریابی ماسکی را “داشتن هوش مصنوعی به عنوان تقویت بشریت و نه جایگزینی بشریت” می‌بیند.

اما این تمایز روشن نیست. مالجریری گفت: ” مردمی که ۵۰ سال پیش زنده بودند، از یادگیری این که چه مقدار از ظرفیت ذهنی ما را به AI داده بودیم، متعجب می‌شدند. AI فکر می‌کند که اکنون چقدر آسان است که حقایق پایه گوگل را در نظر بگیریم یا به GPS و AI تکیه کنیم تا مسیری را برای خانه دوستان پیدا کنیم، یا اینکه چقدر توصیه‌های الگوریتمی اکنون اولویت‌های موسیقی مردم را شکل می‌دهد.

بلافاصله قبل از این که ماسک از بلندپروازی‌های رباتی تسلا در روز AI صحبت کند، فردی که کت و شلوار بدن سفید تنگ و ماسک سیاه با صورت سفید پوشیده بود، به طور جدی به روی صحنه رفت، انگار که تلاش می‌کرد مخاطبان را فریب دهد و فکر کند که آن‌ها یک ربات بسیار توانا هستند، قبل از این که دیوانه‌وار به موسیقی الکترونیک برقصند. این یک تلاش تکان‌دهنده برای محو کردن خطوط بین انسان و ربات است.

مگلیری افسانه قورباغه را در نعلبکی پر از آب که به آرامی به جوش می‌آید بازگو کرد و قورباغه زمانی متوجه می‌شود که دیگر دیر شده است. او با حیرت می‌گفت: ” چه وقت ما شروع می‌کنیم که انسانیت خود را به ماشین‌ها واگذاریم؟

ماسک در رویداد روز عفو بین‌الملل گفت که او می‌خواهد بتواند از یک ربات بخواهد که به مغازه برود تا خواربار جمع کند. سوالی که (‏مگلیری)‏دارد این است: وقتی ربات‌ها خرید می‌کنند چه چیزی از دست می‌رود؟

یک پیغام از کامکست:

به آمریکایی‌ها کمک کنید تا بیش‌ترین استفاده را از اینترنت بکنند. ناوبری دیجیتال بخش مهمی از زیرساخت‌های باند وسیع هستند. یاد بگیرید که چرا کمکست از تامین مالی این رهنمودهایی که مهارت‌های دیجیتال را در جوامع سراسر کشور آموزش می‌دهند، حمایت می‌کند.

کمی سر و صدا

جشنواره ۲۰۲۲ موزیلا فعالیت‌های فنی این سازمان را به نمایش گذاشت. همانطور که ما هفته گذشته در DFD پوشش دادیم، اروپا مایل‌ها جلوتر از ایالات‌متحده است وقتی بحث بر سر قرار دادن موانع قانونی در جای خود حول هوش مصنوعی است. یکی از گروه‌های دره سیلیکون که تخصص خود را در اختیار قانون گذاران و قانون گذاران قرار می‌دهد، بنیاد موزیلا است، که روز دوشنبه یک وبلاگ منتشر کرد که در آن توصیه‌هایی برای قانون AI دور از دسترس اتحادیه ارائه شده‌بود.

این پست که توسط مدیر اجرایی موزیلا، مارک سورمن و محقق ارشد سیاست، ماکسیمیلیان گهنتز نوشته شده‌است، به سه حوزه اصلی اشاره می‌کند که در آن‌ها عمل نوشته شده در حال حاضر می‌تواند بهبود یابد: تعادل پاسخگویی برای استفاده مسئولانه AI بین توسعه دهندگان و کاربران آن؛ نوشتن الزامات افشای دقیق‌تر حول استفاده از تکنولوژی‌های به اصطلاح “با ریسک بالا” AI، و ایجاد ابزاری برای کاربران نهایی برای پر کردن شکایات در مورد سو استفاده درک شده آن‌ها.

سورمان گفت: ” تکنولوژی‌هایی که به طور بالقوه خنثی هستند، یا ممکن است خود را دچار سوگیری کنند، اما طراحی آن‌ها به معنای یک فعالیت ذاتا پرخطر نیست، که هنوز هم می‌تواند برای اهداف پرخطر یا اهداف کم‌خطر مورد استفاده قرار گیرد.” ” ما نقش خود را می‌بینیم، ما نیاز به کمیسیون برای کشتی گرفتن با سوالات عملی در مورد چگونگی مقابله با آن را می‌بینیم؛ ما فکر می‌کنیم که در حال حاضر این اقدام بسیار ساده است.”

محققان توصیه کردند که قانونگذاران اتحادیه اروپا “اثبات آینده” این لایحه را با گسترش دامنه آن برای جلوگیری از آسیب‌های بالقوه ناشی از هوش مصنوعی که ممکن است هنوز وجود نداشته باشند، تصویب نکنند.

آن‌ها هشت حوزه را تعریف می‌کنند که می توان آن‌ها را اصلاح کرد.” این امر به طور غیر ضروری فضا را برای مانور دادن برای کمیسیون و قانونگذاران اروپایی در آینده محدود می‌کند. فقط به این دلیل که ما در حال حاضر نمی‌دانیم که چیزی ممکن است خطرناک باشد و ممکن است به مردم آسیب برساند، به این معنی نیست که دو یا سه سال دیگر ممکن است تغییر نکند.”

سورمن و گهنتز گفتند که قانونگذاران اروپایی تا حد زیادی پذیرای توصیه‌های خود بوده‌اند، و با ادامه روند طولانی قانون گذاری، همچنان به ارائه تخصص ادامه خواهند داد.

(‏قانون خدمات دیجیتال اخیرا در اصل توسط قانون گذاران اتحادیه اروپا برای اولین بار در دسامبر ۲۰۲۰ پیشنهاد شد.)‏ همانطور که با این قانون و سایر قوانین پیشگام حریم خصوصی داده‌ها در اروپا، تعجب نکنید اگر بحث‌های امروز در بروکسل بر سر انتشار AI دوباره در واشنگتن مطرح شود.  – درک رابرتسون

برای ثبت

پس از مورد روز جمعه در مورد ارتباط بین شرکت مستقل مجلس سنای ورمونت و دنیای ترامپ، کمپین پیرس در بیانیه‌ای که امروز منتشر شد، گفت که او راه‌هایی را با تیم دستیاران ترامپ در مورد “تفاوت‌های ایدئولوژیکی” جدا کرده‌است. پیرس گفت که علاوه بر استیو بانون، او با بیل دبلازیو در سنا مشورت کرده‌است و اینکه کمپین او اکنون با تیمی مستقل و متشکل از اعضای حزب دموکرات و حزب دموکرات کار می‌کند. – بن شرکینگر

عصرانه

زودباوری مصنوعی؟ یک واقعیت نگران‌کننده در مورد AI پدیدار می‌شود: درست مانند یادگیری ماشینی که می‌تواند الگوهایی را که انسان‌ها نمی‌توانند تشخیص دهند، همچنین می‌تواند به روش‌هایی فریب بخورد که هرگز یک فرد را گول نزند.

این فقط یک نظر نیست: هفته گذشته در یک رشته تاحدودی نگران‌کننده در توییتر، نویسنده “دکترین توری” یک لیست لباس شویی از نمونه‌هایی از این که چگونه الگوریتم های یادگیری ماشین توسط محققان فریب داده‌شده و دستکاری شده‌اند، تهیه کرد، گاهی اوقات به شیوه‌ای خام و ساده با مفاهیم بالقوه خطرناک: یک تیم چینی نشان داد که آن‌ها می‌توانند مربع‌های کوچک نور مادون‌قرمز را بر روی هر چهره نقاشی کنند و یک سیستم تشخیص چهره ایجاد کنند که فکر کند هر چهره دیگری است.”

حمله‌ای که صداهای غیرقابل شنیدن را به اتاقی اضافه می‌کرد که تنها یک گوینده باهوش می‌توانست بشنود و بر روی آن اقدام کند.”

تیمی از تورنتو متوجه شدند که یک طبقه‌بندی کننده که همه چیز را در یک اتاق نشیمن معمولی به طور قابل اعتمادی شناسایی کرده بود، وقتی یک فیل به اتاق اضافه کرد کاملا گیج شد.”

در سال ۲۰۱۹، یک تیم تنسنت نشان داد که آن‌ها می‌توانند با اضافه کردن نوارهای کوچک و بی‌ضرر نوار به سطح جاده، خلبان تسلات را به عبور از میانه منحرف کنند.”

در این رشته، که او به عنوان یک پست وبلاگ نیز گردآوری کرده‌است، داتورو مقاله اخیر خود را که نشان می‌دهد چگونه این داده‌های “نمونه‌های مخالف” که زمانی که به یک سیستم یادگیری ماشینی معرفی می‌شوند، باعث می‌شوند که نقص ایجاد شود را می توان به هر سیستمی اضافه کرد، برای هر هدفی و آن‌ها را می توان برای هر کسی که نمی‌دانست کجا را نگاه کند، غیرقابل‌تشخیص دانست.

به عبارت دیگر، اگر شما یک سیستم بازشناسی چهره را با یک میلیارد چهره آموزش دهید، می‌توانید هر چهره را به گونه‌ای تغییر دهید که برای چشم انسان غیرقابل‌تشخیص باشد، به طوری که با هر یک از آن چهره‌ها مطابقت داشته باشد.” ” به همین ترتیب، شما می‌توانید یک سیستم یادگیری ماشینی را برای گرفتن وام بانکی آموزش دهید، و مهاجم می‌تواند یک برنامه وام را به شیوه‌ای تغییر دهد که یک ناظر انسانی نتواند آن را تشخیص دهد، به طوری که سیستم همیشه وام را تایید کند.”  – درک رابرتسون

--------------

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *