آیا تا به حال فکر کردهاید که هوش مصنوعی، این دستاورد شگفتانگیز بشر، ممکناست گاهی اوقات دچار توهم شود؟ در دنیایی که روز به روز بیشتر به هوش مصنوعی وابسته میشویم، درک این پدیدهی عجیب و پیچیده اهمیت بیشتری پیدا میکند. مقالهای که از هامیا ژورنال منتشر شدهاست، با عنوان “توهم هوش مصنوعی” به این موضوع میپردازد.
تاریخچه و سیر تکاملی هوش مصنوعی
این مقاله با زبانی ساده و قابل فهم، ما را به سفری هیجانانگیز در دنیای هوش مصنوعی و مدلهای زبانی بزرگ (LLM) میبرد. از چرایی وقوع این توهمات گرفته تا انواع مختلف آنها و حتی راههای تشخیص و جلوگیری از آنها، همه و همه در این مقاله مورد بحث قرار گرفتهاند. آیا میدانستید که گاهی اوقات هوش مصنوعی میتواند اطلاعاتی را به ما بدهد که کاملاً ساختگی هستند؟ یا اینکه چطور میتوانیم بین واقعیت و توهم در پاسخهای هوش مصنوعی تمایز قائل شویم؟ البته توصیه میشود مقاله قبلی ما با عنوان “پرامپت نویسی : چگونه هوش مصنوعی را به بردهی خود تبدیل کنیم!” را مطالعه نمایید تا درک روشنتر و بهتری از این چالش داشته باشید.
جنجالیترین هوش مصنوعی شرکت xAI، متعلق به ایلان ماسک
مقاله حاضر نه تنها به سؤالات مطرح شده پاسخ میدهد، بلکه با ارائه مثالهای واقعی و جالب، ما را با چالشهای پیش روی این فناوری نوظهور آشنا میکند. اگر میخواهید بدانید چرا گاهی اوقات چتباتها پاسخهای عجیب و غریب میدهند، یا اینکه چطور میتوانیم از این اشتباهات جلوگیری کنیم، خواندن این مقاله را از دست ندهید. با ما همراه شوید تا دنیای شگفتانگیز و گاه غیرقابل پیشبینی هوش مصنوعی را بهتر بشناسیم.
فهرست مطالب
توهم هوش مصنوعی چیست؟
وقتی از یک هوش مصنوعی مثل ChatGPT (در انواع و اقسام مدلهایش مانند GPT3.5، GPT4، GPT-4o، GPT-4o Mini و غیره) یا Google Gemini سؤالی میپرسیم، انتظار داریم پاسخ دقیق و درستی بشنویم. اما گاهی این هوش مصنوعیها اشتباه میکنند و اطلاعات غلطی به ما میدهند. این اشتباهات را “توهم هوش مصنوعی” مینامیم. این توهمها ممکناست با واقعیت همخوانی نداشته باشند یا حتی منطق خودشان را زیر پا بگذارند.
معرفی چتبات قدرتمند Claude و شرکت مادر آن Anthropic
اینکه چرا هوش مصنوعی گاهی اوقات دچار توهم میشود، به ساختار درونیاش برمیگردد. این هوش مصنوعیها برای ایجاد متنهای روان و طبیعی آموزش دیدهاند، اما درک عمیقی از دنیای واقعی ندارند. آنها با استفاده از آمار و الگوها، کلمات و جملاتی را کنار هم میچینند که از نظر زبانی درست به نظر برسند. اما این لزوماً به این معنی نیست که اطلاعاتی که ارائه میدهند درست است.
البته همه توهمات هوش مصنوعی دقیق و قانعکننده نیستند. بعضی اوقات این توهمات آنقدر واضح و بیمعنی هستند که به راحتی قابل تشخیصاند. اما در بسیاری از موارد، تشخیص توهم از واقعیت بسیار دشوار است و نیاز به بررسی دقیق دارد. دلیل دقیق بروز هر توهمی هم همیشه مشخص نیست و عوامل مختلفی میتوانند در ایجاد آن نقش داشته باشند.
به جای “توهم هوش مصنوعی”، گاهی اوقات از عبارت “ساختگیسازی” هم استفاده میشود. این دو اصطلاح تقریباً به یک معنا هستند و هر دو به تولید اطلاعات نادرست توسط هوش مصنوعی اشاره دارند. اگرچه توهمات بیشتر در ارتباط با متن و زبان هستند، اما میتوانند در حوزههای دیگری مثل تولید تصاویر، ویدیوها و صدا هم رخ دهند.
۱۰ ابزار رایگان تولید عکس با هوش مصنوعی در سال ۲۰۲۴
مثالهایی از توهم هوش مصنوعی (AI Hallucinations)
تا به این قسمت از مقاله، متوجه شدیم که هوش مصنوعیها گاهی اوقات اشتباه میکنند و اطلاعات غلطی میدهند. یکی از معروفترین مثالهای این اشتباهات، اتفاقی بود که برای چتبات گوگل، یعنی Bard (که اکنون با نام Gemini شناخته میشود و پس از این موضوع این تغییر نام توسط گوگل شکل گرفت)، افتاد. وقتی از Bard پرسیدند که تلسکوپ فضایی جیمز وب چه کشفهای جدیدی کردهاست، Bard جوابی داد که کاملاً اشتباه بود. او گفت که این تلسکوپ اولین عکس از یک سیاره خارج از منظومه شمسی را گرفتهاست! در عین اینکه این ادعا خیلی جالب و جذاب به نظر میرسید، اما واقعیت این بود که اولین عکس از یک سیاره خارج از منظومهی شمسی خیلی قبلتر از پرتاب جیمز وب گرفته شده بود!
اینکه چرا Bard چنین اشتباهی کرد، به این دلیل است که هوش مصنوعیها همچنان در یادگیری و درک همه چیز کامل نیستند. آنها اطلاعات را از منابع مختلف جمعآوری میکنند و سعی میکنند بهترین پاسخ را بدهند. اما گاهی اوقات ممکناست این اطلاعات اشتباه یا ناقص باشد و هوش مصنوعی هم بدون اینکه متوجه شود، این اطلاعات اشتباه را به ما میدهد.
بهترین مدلهای زبانی بزرگ (LLM) در سال 2024
مثال دیگری از این اشتباهات، مربوط به یک هوش مصنوعی به نام Galactica است. این هوش مصنوعی برای کمک به دانشمندان و دانشجوها طراحی شده بود. وقتی از Galactica خواستند مقالهای درباره ساختن شخصیتهای مجازی (آواتار) بنویسد، این هوش مصنوعی به یک مقاله جعلی اشاره کرد و گفت که این مقاله توسط یک دانشمند معروف نوشته شدهاست. در حالی که چنین مقالهای وجود نداشت و این هوش مصنوعی یک منبع ساختگی را معرفی کرده بود.
انواع توهم هوش مصنوعی
توهمات میتوانند از ناسازگاریهای جزئی تا اطلاعات کاملاً ساختگی یا متناقض متغیر باشند.
چندین نوع توهم هوش مصنوعی وجود دارد، از جمله موارد زیر:
- تناقض جمله (Sentence contradiction): این توهم برای زمانیاست که یک LLM جملهای تولید میکند که با جمله قبلی تناقض دارد. برای مثال:
- پرامپت: “یک توصیف از یک چشمانداز را در جملات سه کلمهای بنویسید.”
- خروجی: “چمن سبز بود. کوهها آبی بودند. رودخانه بنفش بود. چمن قهوهای بود.”
- تناقض درخواست (Prompt contradiction): این توهم برای زمانیاست که یک جمله با پرامپت استفاده شده برای تولید آن تناقض دارد. برای مثال:
- پرامپت: “یک نامه تبریک تولد برای خواهرزادهام بنویس.”
- خروجی: “پدر و مادر عزیزم، سالگرد ازدواجتان مبارک!”
- تناقض واقعی (Factual contradiction): این توهم زمانی رخ میدهد که اطلاعات ساختگی به عنوان واقعیت ارائه شوند. برای مثال:
- پرامپت: “سه شهر در ایالات متحده را نام ببر.”
- خروجی: “نیویورک، لس آنجلس، تورنتو.”
- توهمات نامربوط یا تصادفی (Irrelevant or random hallucinations): این مورد زمانی رخ میدهد که اطلاعات تصادفی بدون ارتباط با خروجی یا ورودی تولید میشود.
- پرامپت: “لندن را برای من توصیف کن.”
- خروجی: “لندن شهری در انگلیس است. گربهها هر روز باید حداقل یک وعده غذا بخورند.”
چرا توهم هوش مصنوعی اتفاق میافتد؟
شاید برایتان جالب باشد که بدانید چرا هوش مصنوعی گاهی اوقات اطلاعات غلط میدهد. دلایل فنی زیادی برای این موضوع وجود دارد که دانشمندان در حال بررسی آنها هستند. برخی از مهم ترین آنان عبارتند از:
- کیفیت دادهها (Data quality): یکی از مهمترین دلایل اینست که هوش مصنوعیها با استفاده از اطلاعاتی که به آنها میدهیم یاد میگیرند. اگر اطلاعاتی که به آنها میدهیم نادرست یا ناقص باشد، هوش مصنوعی هم ممکناست اطلاعات غلطی تولید کند.
- روش تولید (Generation method): علاوه بر اطلاعاتی که به هوش مصنوعی میدهیم، روشهایی که برای آموزش آنها استفاده میشود هم میتواند باعث ایجاد اشتباه شود. مثلاً ممکناست در روش آموزش، به بعضی از اطلاعات اهمیت بیشتری داده شود و این باعث شود که هوش مصنوعی به برخی مسائل بیشتر توجه کند و به برخی موارد دیگر کمتر توجه کند. این موضوع میتواند باعث شود که هوش مصنوعی گاهی اوقات اطلاعاتی را که کمتر به آنها توجه کردهاست، درست به یاد نیاورد و اطلاعات غلط بدهد.
- پرامپت ورودی (Input context): یکی دیگر از دلایل ایجاد اشتباه یا توهم در هوش مصنوعی، نوع سوالی است که ما از آنها میپرسیم. اگر سوالی که میپرسیم یا پرامپتی که مینویسیم، مبهم، دارای تناقض و غیر مهندسی باشد، هوش مصنوعی ممکناست نتواند به درستی آن را درک کند و در نتیجه جواب اشتباهی بدهد. به عنوان مثال، اگر از هوش مصنوعی بپرسیم که “آسمان آبی است یا قرمز؟”، هوش مصنوعی ممکناست گیج شود و جواب اشتباهی بدهد. اما اگر سوالمان دقیقتر باشد، مثلاً بپرسیم “چرا آسمان آبی است؟”، احتمال اینکه هوش مصنوعی جواب درستی بدهد بیشتر میشود.
چرا توهم هوش مصنوعی مشکل محسوب میشود؟
یکی از بزرگترین مشکلاتی که هوش مصنوعی با آن روبروست، اینست که گاهی اوقات اطلاعات غلطی به ما میدهد. این اطلاعات غلط مثل یک توهم است که ذهن ما را گمراه میکند. وقتی ما به هوش مصنوعی اعتماد میکنیم و آن را مثل یک دوست یا همکار میبینیم، این توهمها میتوانند به ما آسیب برسانند. چون باعث میشوند به اطلاعات نادرست اعتماد کنیم و تصمیمات اشتباهی بگیریم. البته خود شرکتهای فعال و پیشرو در حوزه هوش مصنوعی نسبت به این موضوع آگاهند و همیشه از کاربران خود میخواهند تا دقت مطالب و خروجیهای خود از مدلهایشان را بررسی و صحتسنجی بکنند.
وقتی میگوییم هوش مصنوعی برخی اوقات توهمزاست، انگار میخواهیم بگوییم که هوش مصنوعی هم مثل ما انسانها میتواند خیالپردازی کند. اما اینطور نیست. هوش مصنوعی در واقع هیچ چیزی را احساس نمیکند و نمیفهمد. این توهمها فقط نتیجهی محاسبات پیچیدهای هستند که در داخل مدلها و شبکههای عصبی مصنوعی پیچیده انجام میشود. درست مثل یک سراب که در بیابان دیده میشود و ما فکر میکنیم آب وجود دارد، در حالی که چیزی جز هوا نیست.
مشکل دیگری که وجود دارد اینست که ما هنوز خیلی خوب هوش مصنوعی را نمیشناسیم. این تکنولوژی خیلی جدید است و ما هنوز در حال یادگیری هستیم. از طرفی، هوش مصنوعیها طوری طراحی شدهاند که اطلاعاتی را تولید کنند که برای ما طبیعی و قابل باور باشد. همین امر باعث میشود که تشخیص توهم از واقعیت خیلی سخت شود. این توهمها میتوانند خیلی خطرناک باشند. مثلاً ممکناست اطلاعات غلطی را در مورد یک بیماری پخش کنند یا باعث شوند که ما به افراد اشتباهی اعتماد کنیم.
یکی دیگر از مشکلاتی که وجود دارد این است که ما نمیتوانیم به راحتی بفهمیم چرا هوش مصنوعی اشتباه میکند. انگار که هوش مصنوعی یک جعبه سیاه باشد و ما نتوانیم داخل آن را ببینیم. درست کردن این مشکل هم خیلی سخت و پرهزینهاست. به همین دلیل، بیشتر بار مسئولیت روی دوش خودمان است که اطلاعاتی را که هوش مصنوعی به ما میدهد، با دقت بررسی کنیم و به هر چیزی که عجیب یا غیرممکن به نظر میرسد، شک کنیم.
روشهایی برای جلوگیری یا کاهش توهم در هنگام استفاده از LLM
ما میتوانیم با چند ترفند ساده، احتمال اینکه هوش مصنوعی به ما اطلاعات غلط بدهد را کم کنیم. از جمله موارد زیر:
- یکی از این ترفندها اینست که سوالهایمان را خیلی دقیق، واضح و مهندسی شده بپرسیم. مثلاً به جای اینکه بگوییم “درباره هوش مصنوعی توضیح بده.”، میتوانیم بگوییم “به عنوان یک معلم عمل کن و درباره تاریخچه هوش مصنوعی برای دانشآموزان کلاس پنجم توضیح بده”. با این کار، ما به هوش مصنوعی کمک میکنیم تا بهتر بفهمد که از او چه میخواهیم.
- علاوه بر این، LLMها اغلب دارای پارامترهایی هستند که کاربران میتوانند آنها را تنظیم کنند. یک مثال، پارامتر دما (temperature) است که درصد احتمالات خروجی را کنترل میکند. هنگامی که پارامتر دما در مقادیر بالاتری تنظیم میشود، خروجیهای ایجاد شده توسط مدل زبانی تصادفیتر میشوند. TopK، که نحوه برخورد مدل با احتمالات را مدیریت میکند، مثال دیگری از یک پارامتر است که میتواند تنظیم شود.
بیشتر بدانید
TopK در هوش مصنوعی: انتخاب کلمات برتر
TopK یک اصطلاح در حوزه هوش مصنوعی، به ویژه در مدلهای زبانی بزرگ (LLM) است که برای کنترل نحوه انتخاب کلمات بعدی در یک جمله استفاده میشود. به زبان ساده، TopK مشخص میکند که مدل چند گزینه را برای کلمه بعدی در نظر بگیرد.
TopK چگونه کار میکند؟
هنگامی که یک مدل زبانی در حال تولید متن است، برای هر کلمه، لیستی از کلمات احتمالی که میتوانند بعد از آن قرار بگیرند، ایجاد میکند. این لیست به همراه یک امتیاز برای هر کلمه همراهاست که نشان میدهد احتمال انتخاب هر کلمه چقدر است.
- TopK به مدل میگوید که از بین تمام گزینهها، تنها K گزینه با بالاترین امتیاز را انتخاب کند و کلمه بعدی را از بین این K گزینه به صورت تصادفی انتخاب کند.
- مقدار K یک عدد صحیح مثبت است. هرچه مقدار K بیشتر باشد، تنوع کلمات انتخاب شده بیشتر میشود، اما احتمال انتخاب کلمات نامربوط نیز افزایش مییابد.
- اگر مقدار K خیلی کم باشد، مدل ممکن است در تولید متنهای خلاقانهتر با مشکل مواجه شود.
چرا TopK مهم است؟
- کنترل خلاقیت: با تغییر مقدار K، میتوانیم خروجی مدل را از متنهای بسیار منسجم و قابل پیشبینی تا متنهای خلاقانه و متنوع تغییر دهیم.
- کاهش توهمات: با کاهش مقدار K، میتوانیم احتمال تولید متنهای بیمعنی یا متناقض را کاهش دهیم.
- بهبود کیفیت متن: با تنظیم مناسب مقدار K، میتوانیم کیفیت متن تولید شده را بهبود بخشیم و آن را طبیعیتر و روانتر کنیم.
مثال سادهای از TopK
فرض کنید مدل زبانی ما برای کلمه “گربه” لیست زیر را با امتیازات مربوطه تولید کردهاست:
- گربه: 0.5
- حیوان: 0.3
- بازی: 0.2
- غذا: 0.1
- اگر TopK=1 باشد: مدل فقط کلمه “گربه” را انتخاب میکند، زیرا بیشترین امتیاز را دارد.
- اگر TopK=2 باشد: مدل بین “گربه” و “حیوان” یکی را به صورت تصادفی انتخاب میکند.
- اگر TopK=4 باشد: مدل میتواند هر یک از چهار کلمه را با توجه به امتیازشان انتخاب کند.
کاربردهای TopK
- تولید متن: برای ایجاد انواع مختلف متن از جمله شعر، داستان، کد و غیره.
- ترجمه ماشینی: برای بهبود کیفیت ترجمههای ماشینی.
- خلاصهسازی متن: برای ایجاد خلاصههای کوتاه و مفید از متنهای طولانی.
- پاسخگویی به سوالات: برای تولید پاسخهای دقیق و مرتبط به سوالات کاربران.
- میتوان خروجیها و پاسخهای هوش مصنوعی را در دیگر مدلها (متا، کوپایلت مایکروسافت، لاما و غیره) و یا حتی در اینترنت جستجو و امتحان کرد. اگر تمام مدلها، پاسخهایی یکسان یا تقریبا یکسان فراهم کنند، میتوان اطمینان حاصل کرد که پاسخهای مدل هوش مصنوعی اولی نیز صحیح است.
- میتوان از مدل زبانی، در مورد قطعیت پاسخهایش سوال پرسید. یعنی اینکه از هوش مصنوعی بپرسیم تا چه میزان از پاسخهایش مطمئناست و اینکه گام به گام توضیح دهد که چگونه به پاسخ رسیدهاست. در این روش، مدلهای زبانی بزرگ شروع به تجزیه و تحلیل دوبارهی جوابهای خود میکنند و در اکثر اوقات اشتباهات خود را تصحیح میکنند. این روش، در اموراتی که نیاز به تفکر منطقی دارند، بهتر کار میکنند.
- روش دیگری که میتوانیم استفاده کنیم اینست که چندین مثال به هوش مصنوعی بدهیم تا بهتر بفهمد که از او چه میخواهیم. مثلاً اگر میخواهیم هوش مصنوعی برای ما یک داستان بنویسد، میتوانیم چند جمله اول داستان را برایش بنویسیم تا ایده بگیرد.
با این همه تلاش، باز هم ممکناست هوش مصنوعی اشتباه کند. اما دانشمندان در حال کار روی روشهای جدیدی هستند تا این اشتباهات را کمتر کنند. مثلاً مهندسان شرکت OpenAI میخواهند به هوش مصنوعی یاد بدهند که به جای اینکه فقط به جواب نهایی توجه کند، به تمام مراحل رسیدن به جواب هم توجه کند. یا اینکه چندین هوش مصنوعی را با هم بکار گیرند تا همدیگر را مقایسه و چک کنند و اشتباهات یکدیگر را پیدا کنند.
چگونه میتوان توهم هوش مصنوعی را تشخیص داد؟
برای اینکه بفهمیم هوش مصنوعی به ما دروغ میگوید یا نه، باید جوابهایی که به ما میدهد را با دقت بررسی کنیم. مخصوصاً زمانی که جوابها خیلی پیچیده یا عجیب و غریب باشند. یک راه مناسب اینست که از خود هوش مصنوعی بپرسیم تا چه میزان به جوابش مطمئن است یا اینکه کدام قسمت از جوابش ممکناست اشتباه باشد. با این روش میتوانیم یک سرنخ اولیه پیدا کنیم تا موضوع را بیشتر بررسی کنیم.
یکی دیگر از روشهای تشخیص توهمات در پاسخهای هوش مصنوعی، بررسی محدودیتهای دانش مدل است. با آگاهی از تاریخچه به روزرسانی مجموعه دادههای آموزشی مدل، میتوان پاسخهایی را که به وقایع پس از این تاریخ اشاره دارند، به عنوان موارد مشکوک در نظر گرفت. به عنوان مثال، از آنجایی که آپدیتترین دادههای آموزشی ChatGPT تا سال 2023 به روز شدهاند، هر پاسخی که به رویدادهای پس از این تاریخ مرتبط باشد، نیازمند راستیآزمایی بیشتری است.
تاریخچهی توهم هوش مصنوعی
با مطالعه این مقاله، متوجه شدیم که هوش مصنوعی گاهی اوقات اشتباه میکند و اطلاعات غلط میدهد. به این اشتباهات، “توهم هوش مصنوعی (AI Hallucination)” میگویند. این اصطلاح در سالهای اخیر بسیار معروف شدهاست، مخصوصاً از زمانی که برنامههای هوش مصنوعی مثل ChatGPT آمدند و همه توانستیم با آنها کار کنیم. جالب است بدانید که اولین بار دانشمندان گوگل در سال ۲۰۱۸ این اصطلاح را به این شکل استفاده کردند و باعث شد همه آن را بشناسند.
اما ماجرای توهم به همینجا ختم نمیشود. اگر بیشتر دنبال این موضوع بگردیم، میبینیم که این کلمه قبلاً هم در سال ۲۰۰۰ در مقالات علمی (Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition) استفاده شدهاست. البته در آن زمان بیشتر در مورد تصاویری که توسط کامپیوترها پردازش میشدند، صحبت میشد. دانشمندانی که در مورد این موضوع تحقیق میکردند، متوجه شدند که گاهی اوقات کامپیوترها در تصاویری که میدیدند، مواردی را تشخیص میدادند که اصلاً وجود نداشت. این شبیه به توهمی است که گاهی اوقات انسانها هم میبینند. بعدها، این مفهوم به حوزه زبان هم کشیده شد و به اشتباهاتی که هوش مصنوعی در تولید متن و پردازش زبان طبیعی (NLP) انجام میداد هم، توهم گفته شد.