از آخرالزمان هوش مصنوعی جلوگیری می شود؟ شبکه های عصبی اکنون آنقدر هوشمند هستند که می توانند بدانند چه زمانی نباید به آنها اعتماد کرد – اخبار جهانی RT

در تحولی که می تواند مجموعه ای از فیلم های علمی تخیلی متعدد درباره آخرالزمان هوش مصنوعی را مهار کند ، دانشمندان یک شبکه عصبی ایجاد کرده اند که به اندازه کافی هوشمند است و می داند چه زمانی نباید به آن اعتماد کرد.

با گذشت هر سال ، سیستم های هوش مصنوعی معروف به شبکه های عصبی یادگیری عمیق به طور فزاینده ای در مناطقی مورد استفاده قرار می گیرند که می توانند تأثیر زیادی بر سلامت و ایمنی داشته باشند ، مانند حمل و نقل و دارو.

این سیستم ها برای کمک به تصمیم گیری ساخته شده اند و آنها در توزین مجموعه داده های پیچیده ای که بشر به راحتی توانایی تجزیه و تحلیل آنها را ندارد ، تخصص دارند.

اما از کجا می دانیم قضاوت آنها درست است؟ برای حل این مشکل ، شبکه جدید می تواند میزان اطمینان خود را به همراه پیش بینی های خود ارائه دهد.

دانشمندان این توسعه می گویند این می تواند جان انسان ها را نجات دهد ، زیرا سطح اطمینان یک سیستم می تواند تفاوت بین یک وسیله نقلیه مستقل باشد “کاملاً واضح است که از طریق تقاطع پیش بروید” و نتیجه گیری “این احتمالاً واضح است ، بنابراین برای هر مورد متوقف شوید.”

این ویژگی خودآگاهی نسبت به قابلیت اطمینان دوبله شده است “رگرسیون مشهود عمیق” و سطح اطمینان خود را بر اساس کیفیت داده های موجودی که باید با آنها کار کند ، قرار می دهد.

اخبار مرتبط  IDF حملات بمباران غزه را به عنوان تلافی موشک ، پرتاب توپ های آتش سوز انجام می دهد. محدودیت های جدید اعمال شده - RT World News

این ویژگی با انجام تجزیه و تحلیل خود بدون نیاز به محاسبات بیش از حد ، در محافظات قبلی بهبود می یابد.

دانشمندان با آموزش شبکه آنها برای قضاوت در مورد اعماق قسمتهای مختلف تصویر ، شبیه نحوه محاسبه مجاورت یک عابر پیاده یا وسیله نقلیه دیگر توسط یک ماشین خودران را آزمایش کردند.




همچنین در rt.com
نگهبان در مورد اینکه چرا تصرف هوش مصنوعی به روشی که “توسط روبات نوشته شده است” اتفاق نمی افتد صحبت می کند ، اما سران فنی پشت این نیرو بوی یک انسان را می گیرند



این سیستم به خوبی با تنظیمات موجود مقایسه شده است ، در عین حال توانایی تخمین عدم قطعیت خود را دارد. زمانهایی که شبکه حداقل مطمئن نبود زمانهایی بود که عمق را اشتباه می گرفت.

“این ایده به طور گسترده ای مهم و قابل استفاده است” یکی از محققان ، پروفسور دانیلا روس از موسسه فناوری ماساچوست (MIT) را توضیح داد.

“این می تواند برای ارزیابی محصولاتی استفاده شود که به مدل های آموخته شده متکی هستند. با برآورد عدم اطمینان از یک مدل آموخته شده ، ما همچنین می آموزیم که چقدر خطا از مدل انتظار داریم ، و چه داده های از دست رفته می تواند مدل را بهبود بخشد. “

این داستان را دوست دارید؟ با یک دوست به اشتراک بگذارید!

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *