قدرت هوش مصنوعی و مدلهای یادگیری ماشینی که بر اساس آن بنا شده است، همچنان در حال تغییر قوانین کسبوکار هستند. با این حال، بسیاری از پروژههای هوش مصنوعی – اغلب پس از استقرار، که خصوصاً پرهزینه و شرمآور است – شکست میخورند. فقط از آمازون در مورد شکستهای تشخیص چهرهاش یا مایکروسافت در مورد اشتباهاتش با چتبات Tayاش باید پرسید. اغلب اوقات، دانشمندان داده چنین شکستهایی را به عنوان ناهنجاریهای انسانی.موردی نادیده میگیرند، بدون اینکه به دنبال الگوهایی باشند که میتواند به جلوگیری از شکستهای آینده کمک کنند. مدیران ارشد کسبوکار امروزی قدرت – و مسئولیت – جلوگیری از شکستها دارند. اما برای انجام این کار، آنها باید اطلاعات بیشتری در مورد مجموعه دادهها و مدلها داشته باشند تا هم پرسشهای درستی از توسعهدهندگان مدل هوش مصنوعی بپرسند و هم پاسخها را ارزیابی کنند.
شاید با خود فکر کنید، “اما آیا دانشمندان داده آموزش زیادی ندیدهاند؟” اکثریت قریب به اتفاق آموزشهای دانشمندان داده امروزی بر مکانیک یادگیری ماشین، نه محدودیتهای آن، متمرکز است. این امر دانشمندان داده را برای جلوگیری یا تشخیص صحیح شکستهای مدل هوش مصنوعی مجهز نمیکند. توسعهدهندگان هوش مصنوعی باید توانایی یک مدل را برای کار در آینده و فراتر از محدودیتهای مجموعه دادههای آموزشی آن بسنجند – مفهومی که آنها تعمیمپذیری مینامند. امروزه این مفهوم به خوبی تعریف نشده و فاقد دقت کافی است.
یک ضربالمثل در علم تجزیه و تحلیل ادعا میکند که توسعهدهندگان مدلها و هنرمندان عادت بد یکسانی دارند و آن این است که عاشق کارهای خود میشوند. از سوی دیگر، دادهها دقت نظری را که لازم استدریافت نمیکنند. به عنوان مثال، برای توسعهدهندگان مدل هوش مصنوعی بسیار آسان است که به مجموعه دادههای موجود بسنده کنند، به جای اینکه به دنبال دادههایی باشند که برای مسئله مورد نظر مناسبتر باشند.
متن یادداشت به زبان اصلی:
