تلاش برای هوش مصنوعی قابل توضیح
هوش مصنوعی (AI) در تجزیه حجم بسیار زیاد داده و تصمیم گیری بر اساس اطلاعاتی که فراتر از محدودیت های درک انسان است، بسیار موثر است. اما از یک نقص جدی رنج میبرد: نمیتواند توضیح دهد که چگونه به نتایجی که ارائه میکند، دستکم، نه بهگونهای که اکثر مردم بتوانند آن را درک کنند، میرسد.
این ویژگی «جعبه سیاه» شروع به ایجاد پیچیدگیهای جدی در برنامههایی میکند که هوش مصنوعی به آنها قدرت میدهد، بهویژه در زمینههای پزشکی، مالی و سایر زمینههای حیاتی، جایی که «چرا» هر اقدام خاص اغلب مهمتر از «چه چیزی» است.
نگاهی به پشت ماجرا
این موضوع منجر به ایجاد زمینه جدیدی به نام هوش مصنوعی قابل توضیح (XAI) میشود که به دنبال ایجاد شفافیت کافی در الگوریتمهای هوش مصنوعی است تا کاربران خارج از قلمرو دانشمندان داده و برنامهنویسان بتوانند منطق هوش مصنوعی خود را دوباره بررسی کنند تا مطمئن شوند که در داخل محدوده کار میکند. مرزهای استدلال قابل قبول، سوگیری و عوامل دیگر.
همانطور که اسکات کلارک، نویسنده فناوری، اخیراً در CMSWire اشاره کرد، هوش مصنوعی قابل توضیح بینش لازم را در مورد فرآیند تصمیمگیری فراهم میکند تا به کاربران اجازه دهد بفهمند چرا اینگونه رفتار میکند. به این ترتیب، سازمانها میتوانند نقصهای مدلهای داده خود را شناسایی کنند، که در نهایت منجر به افزایش قابلیتهای پیشبینی و بینش عمیقتر در مورد اینکه چه چیزی با برنامههای مبتنی بر هوش مصنوعی کار میکند و چه چیزی کار نمیکند، میشود.
عنصر کلیدی در XAI اعتماد است. بدون آن، در هر اقدام یا تصمیمی که یک مدل هوش مصنوعی ایجاد می کند، تردید وجود خواهد داشت و این خطر استقرار در محیط های تولیدی را افزایش می دهد که در آن هوش مصنوعی قرار است ارزش واقعی را برای شرکت به ارمغان بیاورد.
طبق گفته موسسه ملی استاندارد و فناوری، هوش مصنوعی قابل توضیح باید بر اساس چهار اصل ساخته شود:
توضیح – توانایی ارائه شواهد، پشتیبانی یا استدلال برای هر خروجی.
معنیداری – توانایی انتقال توضیحات به روشی که کاربران بتوانند آن را درک کنند.
دقت – توانایی توضیح نه تنها چرایی تصمیم گیری، بلکه نحوه اتخاذ آن و.
محدودیت های دانش – توانایی تعیین اینکه چه زمانی نتیجه گیری های آن قابل اعتماد نیستند، زیرا آنها فراتر از محدودیت های طراحی آن قرار دارند.
در حالی که این اصول را می توان برای هدایت توسعه و آموزش الگوریتم های هوشمند مورد استفاده قرار داد، آنها همچنین برای راهنمایی درک انسان از معنای قابل توضیح وقتی به کار می روند که اساساً یک ساختار ریاضی است.
خریدار مراقب هوش مصنوعی قابل توضیح باشد
به گفته جرمی کان از فورچون، مشکل کلیدی XAI در حال حاضر این است که در حال حاضر به یک کلمه کلیدی بازاریابی برای بیرون راندن پلتفرمها تبدیل شده است تا یک نام واقعی محصول که تحت هر مجموعه ای از استانداردهای معقول توسعه یافته است.
تا زمانی که خریداران متوجه شوند که “قابل توضیح” ممکن است به سادگی به معنای مجموعه ای از حرف های بیهوده باشد که ممکن است ربطی به کار در دست داشته باشد یا نداشته باشد، سیستم پیاده سازی شده است و ایجاد یک سوئیچ بسیار پرهزینه و زمان بر است. مطالعات در حال انجام، خطاهایی را در بسیاری از تکنیکهای توضیحپذیری پیشرو بهعنوان بسیار ساده و ناتوان در توضیح اینکه چرا یک مجموعه داده معین برای خروجی الگوریتم مهم یا بیاهمیت تلقی میشود، مییابد.
آنتونی حبایب، مدیرعامل توسعهدهنده مدیریت هوش مصنوعی Monitaur میگوید تا حدی به همین دلیل است که هوش مصنوعی قابل توضیح کافی نیست. آنچه واقعاً مورد نیاز است هوش مصنوعی قابل درک است. تفاوت در زمینه وسیع تری است که درک بیش از تبیین دارد. همانطور که هر معلمی میداند، شما میتوانید چیزی را برای دانشآموزان خود توضیح دهید، اما این بدان معنا نیست که آنها آن را درک میکنند، بهویژه اگر پایه اولیه دانش لازم برای درک را نداشته باشند. برای هوش مصنوعی، این بدان معناست که کاربران نه تنها باید در مورد نحوه عملکرد مدل در حال حاضر شفافیت داشته باشند، بلکه باید در مورد چگونگی و چرایی انتخاب آن برای این کار خاص نیز شفافیت داشته باشند. چه داده هایی وارد مدل شدند و چرا. چه مسائلی در طول توسعه و آموزش و انبوهی از مسائل دیگر به وجود آمد.
در هسته خود، توضیح پذیری یک مشکل مدیریت داده است. توسعه ابزارها و تکنیکها برای بررسی فرآیندهای هوش مصنوعی در چنین سطح دانهای برای درک کامل آنها و انجام این کار در یک بازه زمانی معقول، آسان یا ارزان نخواهد بود. و احتمالاً نیازمند تلاش یکسانی از سوی نیروی کار دانش است تا هوش مصنوعی را به گونهای درگیر کند که بتواند منطق اغلب از هم گسیخته و آشفته مغز انسان را درک کند.
به هر حال، برای شکل دادن به یک دیالوگ دو نفر نیاز دارند.
دیدگاه خود را ثبت کنید
تمایل دارید در گفتگوها شرکت کنید؟در گفتگو ها شرکت کنید.