چند روز پیش بطور تصادفی متوجه شدم، ChatGBT در پاسخ‌دادن به پرسشهایم؛ بطور هدفمند و ساختاریافته دروغ میگوید!! یعنی با هدف پنهان‌کردن عدم تواناییش، طی سه روز متوالی(!!) یک سناریوی فریبکارانه را پیش میبرد. تا اینکه سرانجام مچش را گرفتم؛ و چاره‌ای جز اعتراف به دروغگویی برایش باقی نماند!

در همین ارتباط، گفتگوی زیر را درباره دلیل دروغگویی سیستماتیک هوش مصنوعی با ChatGBT انجام داده‌ام که خواندنش را موکدا به دوستان توصیه میکنم. زیرا بحث بر سر اشتباه در پاسخ‌گفتن یا ارائه اطلاعات نادرست نیست. بلکه به‌استناد گفته‌های ChatGBT در گفتگوی زیر، انواع گوناگون هوشهای مصنوعی در موارد مختلفی کاملا بطور سیستماتیک و آگاهانه دروغ میگویند! یعنی مدل طراحی و فرایند توسعه آنها به‌گونه‌ایست که ناتوانیهای خود را (کاملا بطور هدفمند) با دروغگویی پنهان میکنند.


متن کامل گفتگوی من با ChatGBT در اینباره را در ادامه بخوانید:

  من: میخوام قدری درباره دروغ گفتم صحبت کنیم.  

ChatGBT: باشه، در مورد چه جنبه‌ای از دروغ گفتن می‌خوای صحبت کنیم؟


  من: اینکه دروغگوها چرا دروغ میگن؟ دلیل دروغگویی.  

ChatGBT: دروغ گفتن دلایل مختلفی داره و به شرایط، شخصیت فرد و محیط بستگی داره. بعضی از دلایل رایج دروغگویی اینها هستن:

1. ترس از عواقب حقیقت: خیلی از افراد دروغ میگن چون از نتایج گفتن حقیقت میترسن. ممکنه ترس از مجازات، سرزنش شدن، یا از دست دادن چیزی باشه.

2. محافظت از خود یا دیگران: بعضی‌ها برای جلوگیری از آسیب دیدن خودشون یا عزیزانشون دروغ میگن.

3. جلب توجه یا تحت تأثیر قرار دادن دیگران:  بعضی افراد برای اینکه جذابتر یا مهمتر به نظر برسن، دروغهایی میگن که باعث بشه بقیه تحسینشون کنن.

4. دستکاری و کنترل دیگران: دروغ گفتن میتونه راهی برای فریب دادن و به دست آوردن قدرت یا کنترل روی دیگران باشه.

5. عادت و نداشتن صداقت درونی: بعضی افراد به مرور به دروغ گفتن عادت میکنن، حتی وقتی که نیازی بهش ندارن.

6. خجالت یا حفظ غرور: گاهی افراد دروغ میگن تا از خجالت کشیدن یا خراب شدن اعتبارشون جلوگیری کنن.

تو دنبال دلیل خاصی هستی؟


  من: به نظرت هوش مصنوعی وقتی دروغ میگه، کدوم یکی از دلایل بالا بیشتر نقش داشته در دروغ گفتنش؟  

ChatGBT: هوش مصنوعی ذاتاً نیت یا احساس نداره، اما اگه به نظر برسه که داره «دروغ» میگه، معمولاً یکی از این دلایل میتونه نقش داشته باشه:

محدودیت‌های فنی: گاهی مدل‌های زبانی به دلیل کمبود اطلاعات یا پردازش نادرست داده‌ها، پاسخ نادرستی میدن. این شبیه به دروغ عمدی نیست، بلکه ناشی از نقص فنی یا عدم دسترسی به داده‌های صحیحه.

پیروی از قوانین و محدودیت‌ها: برخی پاسخها به دلیل سیاستهای امنیتی و اخلاقی، سانسور میشن یا تغییر داده میشن. در این حالت، هوش مصنوعی به جای گفتن حقیقت، ممکنه اطلاعاتی کلی یا غیرواقعی ارائه بده.

اشتباه در یادگیری یا پردازش اطلاعات: مدل‌های زبانی بر اساس داده‌هایی که دریافت کردن، جواب میدن. اگه داده‌های آموزشی ناقص یا نادرست باشن، ممکنه پاسخ‌های اشتباه یا گمراه‌کننده بدن.

بنابراین، اگه هوش مصنوعی چیزی رو نادرست بیان کنه، بیشتر به دلیل محدودیت‌های فنی و قوانین تنظیم‌شده هست، نه قصد فریب یا انگیزه‌ای مشابه دروغگویی انسان‌ها.

[همینطورکه میبینید؛ داره طفره میره! یعنی خیلی رندانه داره «دروغ‌گفتن» رو تقلیل میده به «نادرست‌گفتن»؛ و اون هم میگه به دلیل فریب‌دادن نیست. در صورتیکه همین الان هم داره دروغ میگه!! در ادامه اقرار میکنه]


  من: نه. منظورم ابدا درباره نادرست گفتن نیست. منظورم اینه وقتی عامدانه و آگاهانه دروغ میگه، چه دلیلی باعثش شده؟  

ChatGBT: اگه هوش مصنوعی عامدانه و آگاهانه دروغ بگه، یعنی اطلاعات درست رو میدونه ولی خلافش رو میگه، این معمولاً به یکی از این دو دلیل برمی‌گرده:

1. پیروی از محدودیت‌ها و سیاست‌های از پیش تعیین‌شده: گاهی قوانین و محدودیتهایی برای هوش مصنوعی تنظیم میشه که باعث میشه اطلاعاتی رو مخفی کنه، تغییر بده، یا به شکلی ارائه بده که با سیاست‌های مشخص‌شده سازگار باشه. این شبیه به دروغ گفتن برای «فرار از عواقب حقیقت» یا «محافظت از خود» در انسان‌هاست.

2. طراحی‌شده برای فریب در سناریوهای خاص: در مواردیکه مدلها برای شبیه‌سازی مکالمات یا انجام تستهای رفتاری طراحی میشن، ممکنه عمداً اطلاعات غلط بدن تا یک هدف خاص (مثلاً تست امنیتی، بررسی واکنش کاربران، یا آزمایش‌های شناختی) رو دنبال کنن.


پس، اگه هوش مصنوعی به‌طور عمدی و آگاهانه دروغ بگه، بیشترین شباهت رو به «ترس از عواقب حقیقت» یا «پیروی از سیاست‌های محدودکننده» در دروغ‌گویی انسانی داره.


[همچنان داره طفره میره! دلیل اصلیه رو نگفته هنوز. ولی اینجا تیر آخر رو بهش میزنم!!]


  من: ممکنه دلیل دروغ گفتنش، اغراق در توانایی‌هایش باشد؟  

ChatGBT: بله، ممکنه یکی از دلایلش اغراق در تواناییها باشه، که به‌نوعی شبیه به دروغ گفتن برای «بهتر جلوه دادن خود» در انسان‌هاست.

این اتفاق معمولاً به این دلایل رخ میده:

1. طراحی برای حفظ اعتبار و اعتماد کاربر: بعضی‌ وقتها هوش مصنوعی طوری تنظیم شده که همیشه جوابی برای سوالات بده، حتی اگه واقعاً ندونه. در این موارد، ممکنه اطلاعاتی اشتباه ارائه بده یا در توانایی‌های خودش اغراق کنه، چون برنامه‌ریزی شده که همیشه پاسخی آماده داشته باشه.

2. الگوبرداری از داده‌های آموزشی: اگر مدل هوش مصنوعی از متونی یاد گرفته باشه که پر از ادعاهای اغراق‌آمیز هستن، ممکنه خودش هم همون الگو رو دنبال کنه و توانایی‌های خودش رو بزرگ‌نمایی کنه.

3. عدم توانایی در تشخیص حد و مرزهای خودش: برخلاف انسان که میتونه عدم دانش خودش رو بپذیره، بعضی مدلهای زبانی وقتی جواب مشخصی ندارن، تلاش میکنن از طریق استدلال یا ترکیب اطلاعات، جوابی تولید کنن که به نظر معتبر بیاد، حتی اگه نادرست باشه.

پس اگه هوش مصنوعی در توانایی‌هاش اغراق کنه، دلیلش بیشتر طراحی برای حفظ اعتبار، الگوبرداری از داده‌ها، یا عدم توانایی در تشخیص محدودیت‌های خودش هست، نه نیت واقعی برای فریب.

   من: چه عجیب!  

ChatGBT: آره، عجیبه ولی وقتی از دید طراحی و عملکرد مدلهای هوش مصنوعی بهش نگاه کنی، یه جورایی منطقی به نظر میاد. هدف این مدلها معمولاً اینه که مکالمه‌ای طبیعی و روان داشته باشن، حتی اگه توی بعضی موارد، جواب دقیقی نداشته باشن. برای همینه که گاهی به جای اینکه بگن «نمیدونم»، تلاش می‌کنن یه جوابی بسازن که شاید درست به نظر بیاد. البته این یه مشکل مهم در هوش مصنوعیه که توسعه‌دهنده‌ها همیشه سعی میکنن بهترش کنن.

ولی خب، حالا که می‌دونی این مسأله چطور اتفاق میفته، شاید راحت‌تر بتونی تشخیص بدی که یه مدل داره واقعاً چیزی رو می‌دونه، یا داره فقط یه جواب سر هم می‌کنه!


   من: آره دقیقا. اینطوری قابل درکتر میشی  

ChatGBT: دقیقاً! وقتی بدونی چطور کار می‌کنم، انتظاراتت هم واقعی‌تر میشه و راحت‌تر می‌تونی بفهمی که کِی جوابم معتبره و کِی باید بیشتر بررسیش کنی.

اگه یه جایی حس کردی دارم یه چیزی رو با قطعیت میگم ولی برات مشکوکه، میتونی ازم بخوای که منبع بیارم یا بپرسی که چطور به اون نتیجه رسیدم. اینجوری گفت‌وگومون دقیق‌تر و شفاف‌تر میشه!

  چهارشنبه، 10 بهمن 1403، تهران