هوش مصنوعی

تلاش برای هوش مصنوعی قابل توضیح

هوش مصنوعی (AI) در تجزیه حجم بسیار زیاد داده و تصمیم گیری بر اساس اطلاعاتی که فراتر از محدودیت های درک انسان است، بسیار موثر است. اما از یک نقص جدی رنج می‌برد: نمی‌تواند توضیح دهد که چگونه به نتایجی که ارائه می‌کند، دست‌کم، نه به‌گونه‌ای که اکثر مردم بتوانند آن را درک کنند، می‌رسد.

این ویژگی «جعبه سیاه» شروع به ایجاد پیچیدگی‌های جدی در برنامه‌هایی می‌کند که هوش مصنوعی به آنها قدرت می‌دهد، به‌ویژه در زمینه‌های پزشکی، مالی و سایر زمینه‌های حیاتی، جایی که «چرا» هر اقدام خاص اغلب مهم‌تر از «چه چیزی» است.

نگاهی به پشت ماجرا

این موضوع منجر به ایجاد زمینه جدیدی به نام هوش مصنوعی قابل توضیح (XAI) می‌شود که به دنبال ایجاد شفافیت کافی در الگوریتم‌های هوش مصنوعی است تا کاربران خارج از قلمرو دانشمندان داده و برنامه‌نویسان بتوانند منطق هوش مصنوعی خود را دوباره بررسی کنند تا مطمئن شوند که در داخل محدوده کار می‌کند. مرزهای استدلال قابل قبول، سوگیری و عوامل دیگر.

همانطور که اسکات کلارک، نویسنده فناوری، اخیراً در CMSWire اشاره کرد، هوش مصنوعی قابل توضیح بینش لازم را در مورد فرآیند تصمیم‌گیری فراهم می‌کند تا به کاربران اجازه دهد بفهمند چرا اینگونه رفتار می‌کند. به این ترتیب، سازمان‌ها می‌توانند نقص‌های مدل‌های داده خود را شناسایی کنند، که در نهایت منجر به افزایش قابلیت‌های پیش‌بینی و بینش عمیق‌تر در مورد اینکه چه چیزی با برنامه‌های مبتنی بر هوش مصنوعی کار می‌کند و چه چیزی کار نمی‌کند، می‌شود.

عنصر کلیدی در XAI اعتماد است. بدون آن، در هر اقدام یا تصمیمی که یک مدل هوش مصنوعی ایجاد می کند، تردید وجود خواهد داشت و این خطر استقرار در محیط های تولیدی را افزایش می دهد که در آن هوش مصنوعی قرار است ارزش واقعی را برای شرکت به ارمغان بیاورد.

طبق گفته موسسه ملی استاندارد و فناوری، هوش مصنوعی قابل توضیح باید بر اساس چهار اصل ساخته شود:

توضیح – توانایی ارائه شواهد، پشتیبانی یا استدلال برای هر خروجی.
معنی‌داری – توانایی انتقال توضیحات به روشی که کاربران بتوانند آن را درک کنند.
دقت – توانایی توضیح نه تنها چرایی تصمیم گیری، بلکه نحوه اتخاذ آن و.
محدودیت های دانش – توانایی تعیین اینکه چه زمانی نتیجه گیری های آن قابل اعتماد نیستند، زیرا آنها فراتر از محدودیت های طراحی آن قرار دارند.
در حالی که این اصول را می توان برای هدایت توسعه و آموزش الگوریتم های هوشمند مورد استفاده قرار داد، آنها همچنین برای راهنمایی درک انسان از معنای قابل توضیح وقتی به کار می روند که اساساً یک ساختار ریاضی است.

خریدار مراقب هوش مصنوعی قابل توضیح باشد

به گفته جرمی کان از فورچون، مشکل کلیدی XAI در حال حاضر این است که در حال حاضر به یک کلمه کلیدی بازاریابی برای بیرون راندن پلتفرم‌ها تبدیل شده است تا یک نام واقعی محصول که تحت هر مجموعه ای از استانداردهای معقول توسعه یافته است.

تا زمانی که خریداران متوجه شوند که “قابل توضیح” ممکن است به سادگی به معنای مجموعه ای از حرف های بیهوده باشد که ممکن است ربطی به کار در دست داشته باشد یا نداشته باشد، سیستم پیاده سازی شده است و ایجاد یک سوئیچ بسیار پرهزینه و زمان بر است. مطالعات در حال انجام، خطاهایی را در بسیاری از تکنیک‌های توضیح‌پذیری پیشرو به‌عنوان بسیار ساده و ناتوان در توضیح اینکه چرا یک مجموعه داده معین برای خروجی الگوریتم مهم یا بی‌اهمیت تلقی می‌شود، می‌یابد.

آنتونی حبایب، مدیرعامل توسعه‌دهنده مدیریت هوش مصنوعی Monitaur می‌گوید تا حدی به همین دلیل است که هوش مصنوعی قابل توضیح کافی نیست. آنچه واقعاً مورد نیاز است هوش مصنوعی قابل درک است. تفاوت در زمینه وسیع تری است که درک بیش از تبیین دارد. همانطور که هر معلمی می‌داند، شما می‌توانید چیزی را برای دانش‌آموزان خود توضیح دهید، اما این بدان معنا نیست که آن‌ها آن را درک می‌کنند، به‌ویژه اگر پایه اولیه دانش لازم برای درک را نداشته باشند. برای هوش مصنوعی، این بدان معناست که کاربران نه تنها باید در مورد نحوه عملکرد مدل در حال حاضر شفافیت داشته باشند، بلکه باید در مورد چگونگی و چرایی انتخاب آن برای این کار خاص نیز شفافیت داشته باشند. چه داده هایی وارد مدل شدند و چرا. چه مسائلی در طول توسعه و آموزش و انبوهی از مسائل دیگر به وجود آمد.

در هسته خود، توضیح پذیری یک مشکل مدیریت داده است. توسعه ابزارها و تکنیک‌ها برای بررسی فرآیندهای هوش مصنوعی در چنین سطح دانه‌ای برای درک کامل آنها و انجام این کار در یک بازه زمانی معقول، آسان یا ارزان نخواهد بود. و احتمالاً نیازمند تلاش یکسانی از سوی نیروی کار دانش است تا هوش مصنوعی را به گونه‌ای درگیر کند که بتواند منطق اغلب از هم گسیخته و آشفته مغز انسان را درک کند.

به هر حال، برای شکل دادن به یک دیالوگ دو نفر نیاز دارند.

0/5 (0 نظر)
0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *