آموزش هوش مصنوعی برای غلبه بر تعصب انسانی

آموزش هوش مصنوعی

0

آموزش هوش مصنوعی برای غلبه بر تعصب انسانی

آموزش هوش مصنوعی برای غلبه بر تعصب انسانی آیا شما از یک مدل یادگیری ماشین باهوش تر هستید؟ بیایید بفهمیم پاسخی را انتخاب کنید که با فرض زیر مغایرت داشته باشد:

باب یک خواهر دارد به نام سارا.

  • الف) باب یک خواهر دارد.
  • ب) باب ماشین ندارد.
  • ج) باب خواهر ندارد.

اگر C را انتخاب کردید ، تبریک می گویم!

دانشکده ها : آموزش هوش مصنوعی نمونه هایی از این دست ممکن است ساده به نظر برسند اما به نظر می رسد شاخص خوبی برای درک ماشین از زبان هستند. این آزمون زبان طبیعی استنباط نامیده می شود و اغلب برای سنجش توانایی یک مدل در درک رابطه بین دو متن استفاده می شود. روابط احتمالی شامل مستلزم (مانند مثال A) ، خنثی (B) و تناقض (C) است.

مجموعه داده هایی که صدها هزار س ofال از آنها ایجاد شده است ، منجر به انفجار معماری جدید شبکه عصبی برای حل استنتاج زبان طبیعی شده است. با گذشت سال ها ، این شبکه های عصبی بهتر و بهتر شده اند. مدلهای پیشرفته امروزی معمولاً در این آزمونها معادل B + دارند. انسانها معمولاً نمره A یا A- می گیرند.

اما محققان اخیراً کشف کرده اند که مدلهای یادگیری ماشینی وقتی جواب فقط به آنها داده می شود ، که فرضیه نیز نامیده می شود ، بدون پیش فرض اصلی هنوز به طرز چشمگیری عمل می کنند. به عنوان مثال ، مدلی که فقط “باب خواهر ندارد” داده می شود حدس می زند که این یک فرضیه ضد و نقیض است ، حتی اگر پیش فرض “باب یک خواهر به نام سارا دارد” داده نشود.

همانطور که مشخص شد ، این مجموعه داده ها با تعصبات انسانی بسیار زیاد است. وقتی از انسان ها خواسته می شود جملات متناقضی ارائه دهند ، انسانها اغلب از نفیاتی مانند “نکن” یا “هیچ کس” استفاده می کنند. با این حال ، تکیه بر این سرنخ ها ممکن است باعث شود مدل های یادگیری ماشین نیز به نادرستی برچسب “باب صاحب اتومبیل نیست” با تناقض باشد.

یوناتان بلینکوف ، اولین نویسنده مقاله و عضو فوق دکترا در علوم کامپیوتر در دانشکده مهندسی جان آ. پالسون هاروارد گفت: “این مدل ها یاد نمی گیرند که رابطه بین متون را درک کنند ، آنها در حال یادگیری تصرفات شخصی هستند.” علوم کاربردی (SEAS).

برای مقابله با این موضوع ، بلینکوف و همکارانش روشی جدید برای ساخت مدل های یادگیری ماشین ایجاد کردند که اعتماد مدل به این سوگیری ها را کاهش می دهد.

این تیم تحقیقات خود را در پنجاه و هفتمین نشست سالانه انجمن زبانشناسی محاسبات (ACL) در فلورانس ، ایتالیا در تاریخ ۲۸ ژوئیه – ۲ آگوست ارائه می دهد.

 

معمول است که آزمون معمولی استنباط زبان طبیعی را به صورت یک جریان واحد مدلسازی کنیم – فرضیه و فرضیه هر دو با هم پردازش می شوند و به یک طبقه بندی می شوند که تناقض ، خنثی یا مستلزم پیش بینی باشد.

تیم جریان دوم را به مدل اضافه کردند ، این جریان فقط با فرضیه است. این مدل یاد می گیرد که استنتاج زبان طبیعی را با هر دو جریان به طور همزمان انجام دهد ، اما اگر در سمت تنها فرضیه خوب عمل کند ، جریمه می شود. این رویکرد این مدل را تشویق می کند که بیشتر در سمت مقدمه تمرکز کند و از یادگیری سوگیری هایی که منجر به عملکرد فقط موفق به فرضیه می شود خودداری کند.

استوارت شیبر ، جیمز او. ولچ ، جونیور گفت: “امید ما این است که با این روش ، مدل فقط بر روی کلمات مغرضانه متمرکز نشود ، مانند” نه “یا” نمی کند “، بلکه بیشتر چیزی عمیق تر آموخته است. و ویرجینیا بی ولچ استاد علوم رایانه ای در SEAS و همکار مقاله.

با این وجود این تعصبات می توانند سرنخ های مهمی برای حل مسئله باشند ، بنابراین بی ارزش جلوه دادن بیش از حد آنها بسیار مهم است.

گابریل گرند ، CS ’18 ، که به عنوان بخشی از پایان نامه کارشناسی خود بر روی این پروژه کار می کرد ، گفت: ” بین تعصب و سودمندی یک مرز نازک وجود دارد .” “رسیدن به اوج عملکرد به معنای فراموش کردن بسیاری از مفروضات است اما نه همه آنها.”

(رساله گرند ، “یادگیری مدلهای قابل تفسیر و بدون تعصب برای پاسخ به س Questionالات دیداری” به دلیل کار برجسته علمی یا تحقیقاتی ، جایزه Thomas Temple Hoopes 2018-2019 را دریافت کرد.)

با حذف بسیاری از این مفروضات ، به طور غیرمنتظره مدل دو جریان در داده هایی که روی آن آموزش داده شده اند نسبت به مدلی که به دلیل اتکا به تعصبات جریمه نمی شد ، اندکی بدتر عمل کرد. با این حال ، هنگامی که در مجموعه داده های جدید آزمایش شد – با تعصبات مختلف – مدل به طور قابل توجهی بهتر عمل کرد.

شیبر گفت: “حتی اگر مدل چند درصد بدتر از مجموعه داده های خود عمل کند ، یاد گرفته است که به تعصبات زیاد اعتماد نکند. بنابراین ، این روش مدلی را تولید می کند که عملکرد کلی تری دارد و از استحکام بیشتری برخوردار است.”

این روش ممکن است در حالی که از تعصبات سطحی جلوگیری می کند ، برای طیف وسیعی از وظایف هوش مصنوعی که نیاز به شناسایی روابط عمیق تر دارند – مانند پاسخ دادن به س visualالات بصری ، درک مطلب و سایر وظایف زبان طبیعی -.

مطالب پیشنهادی

ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.