هوش مصنوعی

هوش مصنوعی و سعی بین صفا و مروه!

آیا تا به حال فکر کرده‌اید که هوش مصنوعی، این دستاورد شگفت‌انگیز بشر، ممکن‌است گاهی اوقات دچار توهم شود؟ در دنیایی که روز به روز بیشتر به هوش مصنوعی وابسته می‌شویم، درک این پدیده‌ی عجیب و پیچیده اهمیت بیشتری پیدا می‌کند. مقاله‌ای که از هامیا ژورنال منتشر شده‌است، با عنوان “توهم هوش مصنوعی” به این موضوع می‌پردازد.

تاریخچه و سیر تکاملی هوش مصنوعی

این مقاله با زبانی ساده و قابل فهم، ما را به سفری هیجان‌انگیز در دنیای هوش مصنوعی و مدل‌های زبانی بزرگ (LLM) می‌برد. از چرایی وقوع این توهمات گرفته تا انواع مختلف آن‌ها و حتی راه‌های تشخیص و جلوگیری از آن‌ها، همه و همه در این مقاله مورد بحث قرار گرفته‌اند. آیا می‌دانستید که گاهی اوقات هوش مصنوعی می‌تواند اطلاعاتی را به ما بدهد که کاملاً ساختگی هستند؟ یا اینکه چطور می‌توانیم بین واقعیت و توهم در پاسخ‌های هوش مصنوعی تمایز قائل شویم؟ البته توصیه می‌شود مقاله قبلی ما با عنوان “پرامپت نویسی : چگونه هوش مصنوعی را به برده‌ی خود تبدیل کنیم!” را مطالعه نمایید تا درک روشن‌تر و بهتری از این چالش داشته باشید.

جنجالی‌ترین هوش مصنوعی شرکت xAI، متعلق به ایلان ماسک

مقاله حاضر نه تنها به سؤالات مطرح شده پاسخ می‌دهد، بلکه با ارائه مثال‌های واقعی و جالب، ما را با چالش‌های پیش روی این فناوری نوظهور آشنا می‌کند. اگر می‌خواهید بدانید چرا گاهی اوقات چت‌بات‌ها پاسخ‌های عجیب و غریب می‌دهند، یا اینکه چطور می‌توانیم از این اشتباهات جلوگیری کنیم، خواندن این مقاله را از دست ندهید. با ما همراه شوید تا دنیای شگفت‌انگیز و گاه غیرقابل پیش‌بینی هوش مصنوعی را بهتر بشناسیم.

ai hallucinations

توهم هوش مصنوعی چیست؟

وقتی از یک هوش مصنوعی مثل ChatGPT (در انواع و اقسام مدل‌هایش مانند GPT3.5، GPT4، GPT-4o، GPT-4o Mini و غیره) یا Google Gemini سؤالی می‌پرسیم، انتظار داریم پاسخ دقیق و درستی بشنویم. اما گاهی این هوش مصنوعی‌ها اشتباه می‌کنند و اطلاعات غلطی به ما می‌دهند. این اشتباهات را “توهم هوش مصنوعی” می‌نامیم. این توهم‌ها ممکن‌است با واقعیت همخوانی نداشته باشند یا حتی منطق خودشان را زیر پا بگذارند.

معرفی چت‌بات قدرتمند Claude و شرکت مادر آن Anthropic

اینکه چرا هوش مصنوعی گاهی اوقات دچار توهم می‌شود، به ساختار درونی‌اش برمی‌گردد. این هوش مصنوعی‌ها برای ایجاد متن‌های روان و طبیعی آموزش دیده‌اند، اما درک عمیقی از دنیای واقعی ندارند. آن‌ها با استفاده از آمار و الگوها، کلمات و جملاتی را کنار هم می‌چینند که از نظر زبانی درست به نظر برسند. اما این لزوماً به این معنی نیست که اطلاعاتی که ارائه می‌دهند درست است.

البته همه توهمات هوش مصنوعی دقیق و قانع‌کننده نیستند. بعضی اوقات این توهمات آنقدر واضح و بی‌معنی هستند که به راحتی قابل تشخیص‌اند. اما در بسیاری از موارد، تشخیص توهم از واقعیت بسیار دشوار است و نیاز به بررسی دقیق دارد. دلیل دقیق بروز هر توهمی هم همیشه مشخص نیست و عوامل مختلفی می‌توانند در ایجاد آن نقش داشته باشند.

به جای “توهم هوش مصنوعی”، گاهی اوقات از عبارت “ساختگی‌سازی” هم استفاده می‌شود. این دو اصطلاح تقریباً به یک معنا هستند و هر دو به تولید اطلاعات نادرست توسط هوش مصنوعی اشاره دارند. اگرچه توهمات بیشتر در ارتباط با متن و زبان هستند، اما می‌توانند در حوزه‌های دیگری مثل تولید تصاویر، ویدیوها و صدا هم رخ دهند.

۱۰ ابزار رایگان تولید عکس با هوش مصنوعی در سال ۲۰۲۴

مثال‌هایی از توهم هوش مصنوعی (AI Hallucinations)

تا به این قسمت از مقاله، متوجه شدیم که هوش مصنوعی‌ها گاهی اوقات اشتباه می‌کنند و اطلاعات غلطی می‌دهند. یکی از معروف‌ترین مثال‌های این اشتباهات، اتفاقی بود که برای چت‌بات گوگل، یعنی Bard (که اکنون با نام Gemini شناخته می‌شود و پس از این موضوع این تغییر نام توسط گوگل شکل گرفت)، افتاد. وقتی از Bard پرسیدند که تلسکوپ فضایی جیمز وب چه کشف‌های جدیدی کرده‌است، Bard جوابی داد که کاملاً اشتباه بود. او گفت که این تلسکوپ اولین عکس از یک سیاره خارج از منظومه شمسی را گرفته‌است! در عین اینکه این ادعا خیلی جالب و جذاب به نظر می‌رسید، اما واقعیت این بود که اولین عکس از یک سیاره خارج از منظومه‌ی شمسی خیلی قبل‌تر از پرتاب جیمز وب گرفته شده بود!

اینکه چرا Bard چنین اشتباهی کرد، به این دلیل است که هوش مصنوعی‌ها همچنان در یادگیری و درک همه چیز کامل نیستند. آن‌ها اطلاعات را از منابع مختلف جمع‌آوری می‌کنند و سعی می‌کنند بهترین پاسخ را بدهند. اما گاهی اوقات ممکن‌است این اطلاعات اشتباه یا ناقص باشد و هوش مصنوعی هم بدون اینکه متوجه شود، این اطلاعات اشتباه را به ما می‌دهد.

بهترین مدل‌های زبانی بزرگ (LLM) در سال 2024

مثال دیگری از این اشتباهات، مربوط به یک هوش مصنوعی به نام Galactica است. این هوش مصنوعی برای کمک به دانشمندان و دانشجوها طراحی شده بود. وقتی از Galactica خواستند مقاله‌ای درباره ساختن شخصیت‌های مجازی (آواتار) بنویسد، این هوش مصنوعی به یک مقاله جعلی اشاره کرد و گفت که این مقاله توسط یک دانشمند معروف نوشته شده‌است. در حالی که چنین مقاله‌ای وجود نداشت و این هوش مصنوعی یک منبع ساختگی را معرفی کرده بود.

ai hallucination example

انواع توهم هوش مصنوعی

توهمات می‌توانند از ناسازگاری‌های جزئی تا اطلاعات کاملاً ساختگی یا متناقض متغیر باشند.

چندین نوع توهم هوش مصنوعی وجود دارد، از جمله موارد زیر:

  • تناقض جمله (Sentence contradiction): این توهم برای زمانی‌است که یک LLM جمله‌ای تولید می‌کند که با جمله قبلی تناقض دارد. برای مثال:
    • پرامپت: “یک توصیف از یک چشم‌انداز را در جملات سه کلمه‌ای بنویسید.”
    • خروجی: “چمن سبز بود. کوه‌ها آبی بودند. رودخانه بنفش بود. چمن قهوه‌ای بود.”
  • تناقض درخواست (Prompt contradiction): این توهم برای زمانی‌است که یک جمله با پرامپت استفاده شده برای تولید آن تناقض دارد. برای مثال:
    • پرامپت: “یک نامه تبریک تولد برای خواهرزاده‌ام بنویس.”
    • خروجی: “پدر و مادر عزیزم، سالگرد ازدواجتان مبارک!”
  • تناقض واقعی (Factual contradiction): این توهم زمانی رخ می‌دهد که اطلاعات ساختگی به عنوان واقعیت ارائه شوند. برای مثال:
    • پرامپت: “سه شهر در ایالات متحده را نام ببر.”
    • خروجی: “نیویورک، لس آنجلس، تورنتو.”
  • توهمات نامربوط یا تصادفی (Irrelevant or random hallucinations): این مورد زمانی رخ می‌دهد که اطلاعات تصادفی بدون ارتباط با خروجی یا ورودی تولید می‌شود.
    • پرامپت: “لندن را برای من توصیف کن.”
    • خروجی: “لندن شهری در انگلیس است. گربه‌ها هر روز باید حداقل یک وعده غذا بخورند.”

چرا توهم هوش مصنوعی اتفاق می‌افتد؟

شاید برایتان جالب باشد که بدانید چرا هوش مصنوعی گاهی اوقات اطلاعات غلط می‌دهد. دلایل فنی زیادی برای این موضوع وجود دارد که دانشمندان در حال بررسی آن‌ها هستند. برخی از مهم ترین آنان عبارتند از:

  • کیفیت داده‌ها (Data quality): یکی از مهم‌ترین دلایل اینست که هوش مصنوعی‌ها با استفاده از اطلاعاتی که به آن‌ها می‌دهیم یاد می‌گیرند. اگر اطلاعاتی که به آن‌ها می‌دهیم نادرست یا ناقص باشد، هوش مصنوعی هم ممکن‌است اطلاعات غلطی تولید کند.
  • روش تولید (Generation method): علاوه بر اطلاعاتی که به هوش مصنوعی می‌دهیم، روش‌هایی که برای آموزش آن‌ها استفاده می‌شود هم می‌تواند باعث ایجاد اشتباه شود. مثلاً ممکن‌است در روش آموزش، به بعضی از اطلاعات اهمیت بیشتری داده شود و این باعث شود که هوش مصنوعی به برخی مسائل بیشتر توجه کند و به برخی موارد دیگر کمتر توجه کند. این موضوع می‌تواند باعث شود که هوش مصنوعی گاهی اوقات اطلاعاتی را که کمتر به آن‌ها توجه کرده‌است، درست به یاد نیاورد و اطلاعات غلط بدهد.
  • پرامپت ورودی (Input context): یکی دیگر از دلایل ایجاد اشتباه یا توهم در هوش مصنوعی، نوع سوالی است که ما از آن‌ها می‌پرسیم. اگر سوالی که می‌پرسیم یا پرامپتی که می‌نویسیم، مبهم، دارای تناقض و غیر مهندسی باشد، هوش مصنوعی ممکن‌است نتواند به درستی آن را درک کند و در نتیجه جواب اشتباهی بدهد. به عنوان مثال، اگر از هوش مصنوعی بپرسیم که “آسمان آبی است یا قرمز؟”، هوش مصنوعی ممکن‌است گیج شود و جواب اشتباهی بدهد. اما اگر سوالمان دقیق‌تر باشد، مثلاً بپرسیم “چرا آسمان آبی است؟”، احتمال اینکه هوش مصنوعی جواب درستی بدهد بیشتر می‌شود.

چرا توهم هوش مصنوعی مشکل محسوب می‌شود؟

یکی از بزرگترین مشکلاتی که هوش مصنوعی با آن روبروست، اینست که گاهی اوقات اطلاعات غلطی به ما می‌دهد. این اطلاعات غلط مثل یک توهم است که ذهن ما را گمراه می‌کند. وقتی ما به هوش مصنوعی اعتماد می‌کنیم و آن را مثل یک دوست یا همکار می‌بینیم، این توهم‌ها می‌توانند به ما آسیب برسانند. چون باعث می‌شوند به اطلاعات نادرست اعتماد کنیم و تصمیمات اشتباهی بگیریم. البته خود شرکت‌های فعال و پیشرو در حوزه هوش مصنوعی نسبت به این موضوع آگاهند و همیشه از کاربران خود می‌خواهند تا دقت مطالب و خروجی‌های خود از مدل‌هایشان را بررسی و صحت‌سنجی بکنند.

وقتی می‌گوییم هوش مصنوعی برخی اوقات توهم‌زاست، انگار می‌خواهیم بگوییم که هوش مصنوعی هم مثل ما انسان‌ها می‌تواند خیال‌پردازی کند. اما اینطور نیست. هوش مصنوعی در واقع هیچ چیزی را احساس نمی‌کند و نمی‌فهمد. این توهم‌ها فقط نتیجه‌ی محاسبات پیچیده‌ای هستند که در داخل مدل‌ها و شبکه‌های عصبی مصنوعی پیچیده انجام می‌شود. درست مثل یک سراب که در بیابان دیده می‌شود و ما فکر می‌کنیم آب وجود دارد، در حالی که چیزی جز هوا نیست.

مشکل دیگری که وجود دارد اینست که ما هنوز خیلی خوب هوش مصنوعی را نمی‌شناسیم. این تکنولوژی خیلی جدید است و ما هنوز در حال یادگیری هستیم. از طرفی، هوش مصنوعی‌ها طوری طراحی شده‌اند که اطلاعاتی را تولید کنند که برای ما طبیعی و قابل باور باشد. همین امر باعث می‌شود که تشخیص توهم از واقعیت خیلی سخت شود. این توهم‌ها می‌توانند خیلی خطرناک باشند. مثلاً ممکن‌است اطلاعات غلطی را در مورد یک بیماری پخش کنند یا باعث شوند که ما به افراد اشتباهی اعتماد کنیم.

یکی دیگر از مشکلاتی که وجود دارد این است که ما نمی‌توانیم به راحتی بفهمیم چرا هوش مصنوعی اشتباه می‌کند. انگار که هوش مصنوعی یک جعبه سیاه باشد و ما نتوانیم داخل آن را ببینیم. درست کردن این مشکل هم خیلی سخت و پرهزینه‌است. به همین دلیل، بیشتر بار مسئولیت روی دوش خودمان است که اطلاعاتی را که هوش مصنوعی به ما می‌دهد، با دقت بررسی کنیم و به هر چیزی که عجیب یا غیرممکن به نظر می‌رسد، شک کنیم.

روش‌هایی برای جلوگیری یا کاهش توهم در هنگام استفاده از LLM

ما می‌توانیم با چند ترفند ساده، احتمال اینکه هوش مصنوعی به ما اطلاعات غلط بدهد را کم کنیم. از جمله موارد زیر:

  • یکی از این ترفندها اینست که سوال‌هایمان را خیلی دقیق، واضح و مهندسی شده بپرسیم. مثلاً به جای اینکه بگوییم “درباره هوش مصنوعی توضیح بده.”، می‌توانیم بگوییم “به عنوان یک معلم عمل کن و درباره تاریخچه هوش مصنوعی برای دانش‌آموزان کلاس پنجم توضیح بده”. با این کار، ما به هوش مصنوعی کمک می‌کنیم تا بهتر بفهمد که از او چه می‌خواهیم.
  • علاوه بر این، LLMها اغلب دارای پارامترهایی هستند که کاربران می‌توانند آنها را تنظیم کنند. یک مثال، پارامتر دما (temperature) است که درصد احتمالات خروجی را کنترل می‌کند. هنگامی که پارامتر دما در مقادیر بالاتری تنظیم می‌شود، خروجی‌های ایجاد شده توسط مدل زبانی تصادفی‌تر می‌شوند. TopK، که نحوه برخورد مدل با احتمالات را مدیریت می‌کند، مثال دیگری از یک پارامتر است که می‌تواند تنظیم شود.
temperature in LLMs

بیشتر بدانید

TopK در هوش مصنوعی: انتخاب کلمات برتر

TopK یک اصطلاح در حوزه هوش مصنوعی، به ویژه در مدل‌های زبانی بزرگ (LLM) است که برای کنترل نحوه انتخاب کلمات بعدی در یک جمله استفاده می‌شود. به زبان ساده، TopK مشخص می‌کند که مدل چند گزینه را برای کلمه بعدی در نظر بگیرد.

TopK چگونه کار می‌کند؟

هنگامی که یک مدل زبانی در حال تولید متن است، برای هر کلمه، لیستی از کلمات احتمالی که می‌توانند بعد از آن قرار بگیرند، ایجاد می‌کند. این لیست به همراه یک امتیاز برای هر کلمه همراه‌است که نشان می‌دهد احتمال انتخاب هر کلمه چقدر است.

  • TopK به مدل می‌گوید که از بین تمام گزینه‌ها، تنها K گزینه با بالاترین امتیاز را انتخاب کند و کلمه بعدی را از بین این K گزینه به صورت تصادفی انتخاب کند.
  • مقدار K یک عدد صحیح مثبت است. هرچه مقدار K بیشتر باشد، تنوع کلمات انتخاب شده بیشتر می‌شود، اما احتمال انتخاب کلمات نامربوط نیز افزایش می‌یابد.
  • اگر مقدار K خیلی کم باشد، مدل ممکن است در تولید متن‌های خلاقانه‌تر با مشکل مواجه شود.

چرا TopK مهم است؟

  • کنترل خلاقیت: با تغییر مقدار K، می‌توانیم خروجی مدل را از متن‌های بسیار منسجم و قابل پیش‌بینی تا متن‌های خلاقانه و متنوع تغییر دهیم.
  • کاهش توهمات: با کاهش مقدار K، می‌توانیم احتمال تولید متن‌های بی‌معنی یا متناقض را کاهش دهیم.
  • بهبود کیفیت متن: با تنظیم مناسب مقدار K، می‌توانیم کیفیت متن تولید شده را بهبود بخشیم و آن را طبیعی‌تر و روان‌تر کنیم.

مثال ساده‌ای از TopK

فرض کنید مدل زبانی ما برای کلمه “گربه” لیست زیر را با امتیازات مربوطه تولید کرده‌است:

  • گربه: 0.5
  • حیوان: 0.3
  • بازی: 0.2
  • غذا: 0.1
  • اگر TopK=1 باشد: مدل فقط کلمه “گربه” را انتخاب می‌کند، زیرا بیشترین امتیاز را دارد.
  • اگر TopK=2 باشد: مدل بین “گربه” و “حیوان” یکی را به صورت تصادفی انتخاب می‌کند.
  • اگر TopK=4 باشد: مدل می‌تواند هر یک از چهار کلمه را با توجه به امتیازشان انتخاب کند.

کاربردهای TopK

  • تولید متن: برای ایجاد انواع مختلف متن از جمله شعر، داستان، کد و غیره.
  • ترجمه ماشینی: برای بهبود کیفیت ترجمه‌های ماشینی.
  • خلاصه‌سازی متن: برای ایجاد خلاصه‌های کوتاه و مفید از متن‌های طولانی.
  • پاسخگویی به سوالات: برای تولید پاسخ‌های دقیق و مرتبط به سوالات کاربران.
  • می‌توان خروجی‌ها و پاسخ‌های هوش مصنوعی را در دیگر مدل‌ها (متا، کوپایلت مایکروسافت، لاما و غیره) و یا حتی در اینترنت جستجو و امتحان کرد. اگر تمام مدل‌ها، پاسخ‌هایی یکسان یا تقریبا یکسان فراهم کنند، می‌توان اطمینان حاصل کرد که پاسخ‌های مدل هوش مصنوعی اولی نیز صحیح است.
  • می‌توان از مدل زبانی، در مورد قطعیت پاسخ‌هایش سوال پرسید. یعنی اینکه از هوش مصنوعی بپرسیم تا چه میزان از پاسخ‌هایش مطمئن‌است و اینکه گام به گام توضیح دهد که چگونه به پاسخ رسیده‌است. در این روش، مدل‌های زبانی بزرگ شروع به تجزیه و تحلیل دوباره‌ی جواب‌های خود می‌کنند و در اکثر اوقات اشتباهات خود را تصحیح می‌کنند. این روش، در اموراتی که نیاز به تفکر منطقی دارند، بهتر کار می‌کنند.
  • روش دیگری که می‌توانیم استفاده کنیم اینست که چندین مثال به هوش مصنوعی بدهیم تا بهتر بفهمد که از او چه می‌خواهیم. مثلاً اگر می‌خواهیم هوش مصنوعی برای ما یک داستان بنویسد، می‌توانیم چند جمله اول داستان را برایش بنویسیم تا ایده بگیرد.

با این همه تلاش، باز هم ممکن‌است هوش مصنوعی اشتباه کند. اما دانشمندان در حال کار روی روش‌های جدیدی هستند تا این اشتباهات را کمتر کنند. مثلاً مهندسان شرکت OpenAI می‌خواهند به هوش مصنوعی یاد بدهند که به جای اینکه فقط به جواب نهایی توجه کند، به تمام مراحل رسیدن به جواب هم توجه کند. یا اینکه چندین هوش مصنوعی را با هم بکار گیرند تا همدیگر را مقایسه و چک کنند و اشتباهات یکدیگر را پیدا کنند.

comparing outputs in LLMs

چگونه می‌توان توهم هوش مصنوعی را تشخیص داد؟

برای اینکه بفهمیم هوش مصنوعی به ما دروغ می‌گوید یا نه، باید جواب‌هایی که به ما می‌دهد را با دقت بررسی کنیم. مخصوصاً زمانی که جواب‌ها خیلی پیچیده یا عجیب و غریب باشند. یک راه مناسب اینست که از خود هوش مصنوعی بپرسیم تا چه میزان به جوابش مطمئن است یا اینکه کدام قسمت از جوابش ممکن‌است اشتباه باشد. با این روش می‌توانیم یک سرنخ اولیه پیدا کنیم تا موضوع را بیشتر بررسی کنیم.

یکی دیگر از روش‌های تشخیص توهمات در پاسخ‌های هوش مصنوعی، بررسی محدودیت‌های دانش مدل است. با آگاهی از تاریخچه به روزرسانی مجموعه داده‌های آموزشی مدل، می‌توان پاسخ‌هایی را که به وقایع پس از این تاریخ اشاره دارند، به عنوان موارد مشکوک در نظر گرفت. به عنوان مثال، از آنجایی که آپدیت‌ترین داده‌های آموزشی ChatGPT تا سال 2023 به روز شده‌اند، هر پاسخی که به رویدادهای پس از این تاریخ مرتبط باشد، نیازمند راستی‌آزمایی بیشتری است.

تاریخچه‌ی توهم هوش مصنوعی

با مطالعه این مقاله، متوجه شدیم که هوش مصنوعی گاهی اوقات اشتباه می‌کند و اطلاعات غلط می‌دهد. به این اشتباهات، “توهم هوش مصنوعی (AI Hallucination)” می‌گویند. این اصطلاح در سال‌های اخیر بسیار معروف شده‌است، مخصوصاً از زمانی که برنامه‌های هوش مصنوعی مثل ChatGPT آمدند و همه توانستیم با آنها کار کنیم. جالب است بدانید که اولین بار دانشمندان گوگل در سال ۲۰۱۸ این اصطلاح را به این شکل استفاده کردند و باعث شد همه آن را بشناسند.

اما ماجرای توهم به همین‌جا ختم نمی‌شود. اگر بیشتر دنبال این موضوع بگردیم، می‌بینیم که این کلمه قبلاً هم در سال ۲۰۰۰ در مقالات علمی (Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition) استفاده شده‌است. البته در آن زمان بیشتر در مورد تصاویری که توسط کامپیوترها پردازش می‌شدند، صحبت می‌شد. دانشمندانی که در مورد این موضوع تحقیق می‌کردند، متوجه شدند که گاهی اوقات کامپیوترها در تصاویری که می‌دیدند، مواردی را تشخیص می‌دادند که اصلاً وجود نداشت. این شبیه به توهمی است که گاهی اوقات انسان‌ها هم می‌بینند. بعدها، این مفهوم به حوزه زبان هم کشیده شد و به اشتباهاتی که هوش مصنوعی در تولید متن و پردازش زبان طبیعی (NLP) انجام می‌داد هم، توهم گفته شد.

امتیاز دهید!
2 / 5

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا