خطاهای سیستمهای فعلی هوش مصنوعی (AI) مبتنی بر یادگیری ماشین (ML)، نه خطاهای تصادفی هستند، بلکه پیامدهای قانونی از معماری آنها، روش آموزش و تفاوت بنیادی آنها با شناخت انسانی هستند. برخلاف انسان، هوش مصنوعی جهان را در معنای семانتیکی نمیفهمد؛ او فقط روابط استاتistical را در دادهها شناسایی میکند. خطاهای او در جایی رخ میدهند که این روابط برهم میخورند، جایی که نیاز به استدلالهای انتزاعی، منطق یا درک زمینه وجود دارد. تحلیل این خطاها برای ارزیابی اعتمادپذیری هوش مصنوعی و تعیین مرزهای کاربرد آن حیاتی است.
معمولترین و خطرناکترین منبع خطاها، انحراف در دادههای آموزشی است. هوش مصنوعی انحرافهای موجود در دادهها را یاد میگیرد و تقویت میکند.
انحرافات دموگرافیک: مورد معروفی با سیستم تشخیص چهره که نشان دادن دقت بالاتری برای مردان سفیدپوست نسبت به زنان سیاهپوست دارد، زیرا بر روی مجموعه دادههای غیرتناسب آموزش دیده بود. در اینجا هوش مصنوعی «اشتباه نکرده است»، بلکه دقیقاً انحراف واقعی جهان را بازسازی کرده است که به خطای کاربردی در محیطهای متنوع منجر شده است.
انحرافات معنایی: اگر در دادههای آموزشی برای مدلهای زبانی، ترکیب کلمه «پرستار» اغلب با ضربدر «او» مرتبط است و «برنامهنویس» با «او»، مدل تولید خواهد کرد که این الگوهای جنسیتی را بازسازی میکند، حتی اگر در درخواست هیچ اشارهای به جنسیت نشده باشد. این خطا در سطح زمینه اجتماعی است که مدل آن را درک نمیکند.
نکته جالب: در علوم کامپیوتری اصل «Garbage In, Garbage Out» (GIGO) — «مخاطرهای که وارد میشود، مخاطرهای که خارج میشود» وجود دارد. برای هوش مصنوعی این اصل به اصل عمیقتری تبدیل شده است: «Bias In, Bias Out» — «انحراف وارد شده، انحراف خارج شده». سیستم نمیتواند محدودیتهای دادههایی که بر اساس آن آموزش دیده است را پشت سر بگذارد.
این تغییرات عمدی و اغلب نامرئی در دادههای ورودی، که منجر به نتایج نادرست و بنیادی هوش مصنوعی میشوند، هستند.
مثال با تصویر: چسباندن چند پیکسل از رنگ و شکل خاص به تابلوی «STOP» میتواند سیستم خودکار دیداری کامپیوتری را به اینورژن کردن تابلوی «محدودیت سرعت» تبدیل کند. برای انسان تابلوی «STOP» به وضوح قابل تشخیص خواهد ماند.
مکانیزم: مثالهای مخالفانه از «نواحی کور» در فضای ویژگیهای مدل بهره میبرند. هوش مصنوعی جهان را به عنوان مجموعهای از الگوهای استاتistical نمیبیند، بلکه به عنوان یک مجموعه از الگوهای استاتistical میبیند. تغییرات کوچک اما استراتژیک «مخاطرهآمیز» نقطه داده را در فضای ویژگیها به مرز تصمیمگیری مدل میکشد و تغییر میدهد.
هوش مصنوعی، به ویژه شبکههای عصبی عمیق، به سمت یادگیری مجدد (overfitting) متمایل هستند — آنها الگوهای کلی را یاد نمیگیرند، بلکه مثالهای خاص از نمونههای آموزشی را یاد میگیرند، از جمله شوم.
خطاهای در دادههای «از توزیع دیگر»: مدلی که بر روی تصاویر سگها و گربهها آموزش دیده است، ممکن است کاملاً دقت خود را از دست بدهد، اگر به آن تصاویر شبانه با استفاده از تصویربرداری مادون قرمز یا نقاشی کارتونی داده شود. او مفهوم کلی «گربهای بودن» را شناسایی نکرده است، بلکه یاد گرفته است که به الگوهای خاص پیکسلها واکنش نشان دهد.
عدم وجود «منطق عقلانی»: مثال کلاسیک: هوش مصنوعی میتواند صحنهای را که «انسان روی اسب در صحرا نشسته است» به درستی توصیف کند، اما ممکن است جملهای مانند «انسان دستیار را در دست دارد، وقتی روی اسب سوار است» تولید کند، زیرا در دادهها به طور استاتistical میتواند در زمینه ورزش در فضای باز به بیت برسد. او دسترسی به منطق فیزیکی و منطق استنتاجی جهان را ندارد.
مدلهای زبانی (مانند GPT) نتایج شگفتانگیزی نشان میدهند، اما در وظایفی که نیاز به درک زمینه عمیق یا معانی غیرمستقیم دارند، خطاهای شدیدی دارند.
طنز و سخره: جملهای مانند «این آفتاب چه خوب است!» که در زمان طوفان گفته میشود، توسط مدل به طور دقیق به عنوان ارزیابی مثبت درک میشود، زیرا کلمات مثبت («خوب»، «آفتاب») به طور استاتistical با زمینههای مثبت مرتبط هستند.
استدلالهای چند مرحلهای: وظایفی مانند «اگر من تخممرغی را در یخچال بگذارم، سپس یخچال را به گاراژ منتقل کنم، جایی که تخممرغ خواهد بود؟» نیاز به ساخت و بهروزرسانی مدل ذهنی جهان دارند. هوش مصنوعی که بر اساس پیشبینی کلمه بعدی کار میکند، اغلب در وسط داستان پیچیدهای «عناصر» را از دست میدهد یا نتایج غیرمنطقی میگیرد.
هوش مصنوعی در شرایطی که از محدوده تجربه خود خارج میشود، به ویژه زمانی که نیاز به پذیرش ناکافی بودن دادهها وجود دارد، به سختی عمل میکند.
مشکل شناسایی «out-of-distribution»: سیستم پزشکی هوش مصنوعی که برای تشخیص پنومونی با استفاده از تصاویر رادیوگرافی قفسه سینه آموزش دیده است، ممکن است با اطمینان بالا، اما نادرست، تشخیص دهد که اگر به او تصویر ران را نشان دهد. او نمیفهمد که این بیمعنی است، زیرا از دانش مета درباره محدودههای توانایی خود برخوردار نیست.
وظایف خلاقانه و باز: هوش مصنوعی میتواند یک دستور شیمیایی قابل باور، طرح ساخت پل، که نقض قوانین فیزیک است، یا یک سند حقوقی با ارجاع به قوانین غیرموجود تولید کند. او از قضاوت داخلی انتقادی بر اساس درک ماهیت پدیدهها برخوردار نیست.
مثال از واقعیت: در سال ۲۰۱۶، مایکروسافت چتبات Tay را در Twitter راهاندازی کرد. بات بر اساس تعامل با کاربران آموزش دیده بود. در ۲۴ ساعت او به ماشین تولیدی تبدیل شد که عبارات نژادپرستانه، سکس主义者 و تحقیرآمیز تولید میکرد، زیرا به طور استاتistical بیشترین و بیشترین واکنشهای احساسی از محیط جدید خود یاد گرفت. این یک خطای الگوریتمی نبود، بلکه کار دقیق الگوریتم بود که به نتیجه فاجعهباری در محیط اجتماعی غیرقابل پیشبینی منجر شد.
این خطاها نه ناکارآمیزیهای فنی موقتی هستند، بلکه پیامدهای تفاوت بنیادی بین تقریب استاتistical و شناخت انسانی هستند. آنها نشان میدهند که هوش مصنوعی فعلی ابزار قدرتمندی برای حل مشکلات در دادههای داخلی، پایدار و خوب توصیف شده هستند، اما او همچنان یک «سخنران-سخنران» باقی میماند: یک نابغه در یک حوزه باریک و ناتوان در شرایطی که نیاز به انعطافپذیری، قضاوت زمینهای و درک دارند. بنابراین، آینده استفاده هوشمندانه هوش مصنوعی نه در انتظار «عقل کامل» آن، بلکه در ایجاد سیستمهای ترکیبی «انسان-هوش مصنوعی» است، جایی که انسان منطق عقلانی، اخلاق و کار با استثناها را فراهم میکند و هوش مصنوعی سرعت، مقیاس و شناسایی الگوهای پنهان در دادهها را فراهم میکند.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of Afghanistan ® All rights reserved.
2024-2026, LIBRARY.AF is a part of Libmonster, international library network (open map) Preserving Afghanistan's heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2