چند روز پیش بطور تصادفی متوجه شدم، ChatGBT در پاسخدادن به پرسشهایم؛ بطور هدفمند و ساختاریافته دروغ میگوید!! یعنی با هدف پنهانکردن عدم تواناییش، طی سه روز متوالی(!!) یک سناریوی فریبکارانه را پیش میبرد. تا اینکه سرانجام مچش را گرفتم؛ و چارهای جز اعتراف به دروغگویی برایش باقی نماند!
در همین ارتباط، گفتگوی زیر را درباره دلیل دروغگویی سیستماتیک هوش مصنوعی با ChatGBT انجام دادهام که خواندنش را موکدا به دوستان توصیه میکنم. زیرا بحث بر سر اشتباه در پاسخگفتن یا ارائه اطلاعات نادرست نیست. بلکه بهاستناد گفتههای ChatGBT در گفتگوی زیر، انواع گوناگون هوشهای مصنوعی در موارد مختلفی کاملا بطور سیستماتیک و آگاهانه دروغ میگویند! یعنی مدل طراحی و فرایند توسعه آنها بهگونهایست که ناتوانیهای خود را (کاملا بطور هدفمند) با دروغگویی پنهان میکنند.
متن کامل گفتگوی من با ChatGBT در اینباره را در ادامه بخوانید:
من: میخوام قدری درباره دروغ گفتم صحبت کنیم.
ChatGBT: باشه، در مورد چه جنبهای از دروغ گفتن میخوای صحبت کنیم؟
من: اینکه دروغگوها چرا دروغ میگن؟ دلیل دروغگویی.
ChatGBT: دروغ گفتن دلایل مختلفی داره و به شرایط، شخصیت فرد و محیط بستگی داره. بعضی از دلایل رایج دروغگویی اینها هستن:
1. ترس از عواقب حقیقت: خیلی از افراد دروغ میگن چون از نتایج گفتن حقیقت میترسن. ممکنه ترس از مجازات، سرزنش شدن، یا از دست دادن چیزی باشه.
2. محافظت از خود یا دیگران: بعضیها برای جلوگیری از آسیب دیدن خودشون یا عزیزانشون دروغ میگن.
3. جلب توجه یا تحت تأثیر قرار دادن دیگران: بعضی افراد برای اینکه جذابتر یا مهمتر به نظر برسن، دروغهایی میگن که باعث بشه بقیه تحسینشون کنن.
4. دستکاری و کنترل دیگران: دروغ گفتن میتونه راهی برای فریب دادن و به دست آوردن قدرت یا کنترل روی دیگران باشه.
5. عادت و نداشتن صداقت درونی: بعضی افراد به مرور به دروغ گفتن عادت میکنن، حتی وقتی که نیازی بهش ندارن.
6. خجالت یا حفظ غرور: گاهی افراد دروغ میگن تا از خجالت کشیدن یا خراب شدن اعتبارشون جلوگیری کنن.
تو دنبال دلیل خاصی هستی؟
من: به نظرت هوش مصنوعی وقتی دروغ میگه، کدوم یکی از دلایل بالا بیشتر نقش داشته در دروغ گفتنش؟
ChatGBT: هوش مصنوعی ذاتاً نیت یا احساس نداره، اما اگه به نظر برسه که داره «دروغ» میگه، معمولاً یکی از این دلایل میتونه نقش داشته باشه:
محدودیتهای فنی: گاهی مدلهای زبانی به دلیل کمبود اطلاعات یا پردازش نادرست دادهها، پاسخ نادرستی میدن. این شبیه به دروغ عمدی نیست، بلکه ناشی از نقص فنی یا عدم دسترسی به دادههای صحیحه.
پیروی از قوانین و محدودیتها: برخی پاسخها به دلیل سیاستهای امنیتی و اخلاقی، سانسور میشن یا تغییر داده میشن. در این حالت، هوش مصنوعی به جای گفتن حقیقت، ممکنه اطلاعاتی کلی یا غیرواقعی ارائه بده.
اشتباه در یادگیری یا پردازش اطلاعات: مدلهای زبانی بر اساس دادههایی که دریافت کردن، جواب میدن. اگه دادههای آموزشی ناقص یا نادرست باشن، ممکنه پاسخهای اشتباه یا گمراهکننده بدن.
بنابراین، اگه هوش مصنوعی چیزی رو نادرست بیان کنه، بیشتر به دلیل محدودیتهای فنی و قوانین تنظیمشده هست، نه قصد فریب یا انگیزهای مشابه دروغگویی انسانها.
[همینطورکه میبینید؛ داره طفره میره! یعنی خیلی رندانه داره «دروغگفتن» رو تقلیل میده به «نادرستگفتن»؛ و اون هم میگه به دلیل فریبدادن نیست. در صورتیکه همین الان هم داره دروغ میگه!! در ادامه اقرار میکنه]
من: نه. منظورم ابدا درباره نادرست گفتن نیست. منظورم اینه وقتی عامدانه و آگاهانه دروغ میگه، چه دلیلی باعثش شده؟
ChatGBT: اگه هوش مصنوعی عامدانه و آگاهانه دروغ بگه، یعنی اطلاعات درست رو میدونه ولی خلافش رو میگه، این معمولاً به یکی از این دو دلیل برمیگرده:
1. پیروی از محدودیتها و سیاستهای از پیش تعیینشده: گاهی قوانین و محدودیتهایی برای هوش مصنوعی تنظیم میشه که باعث میشه اطلاعاتی رو مخفی کنه، تغییر بده، یا به شکلی ارائه بده که با سیاستهای مشخصشده سازگار باشه. این شبیه به دروغ گفتن برای «فرار از عواقب حقیقت» یا «محافظت از خود» در انسانهاست.
2. طراحیشده برای فریب در سناریوهای خاص: در مواردیکه مدلها برای شبیهسازی مکالمات یا انجام تستهای رفتاری طراحی میشن، ممکنه عمداً اطلاعات غلط بدن تا یک هدف خاص (مثلاً تست امنیتی، بررسی واکنش کاربران، یا آزمایشهای شناختی) رو دنبال کنن.
پس، اگه هوش مصنوعی بهطور عمدی و آگاهانه دروغ بگه، بیشترین شباهت رو به «ترس از عواقب حقیقت» یا «پیروی از سیاستهای محدودکننده» در دروغگویی انسانی داره.
[همچنان داره طفره میره! دلیل اصلیه رو نگفته هنوز. ولی اینجا تیر آخر رو بهش میزنم!!]
من: ممکنه دلیل دروغ گفتنش، اغراق در تواناییهایش باشد؟
ChatGBT: بله، ممکنه یکی از دلایلش اغراق در تواناییها باشه، که بهنوعی شبیه به دروغ گفتن برای «بهتر جلوه دادن خود» در انسانهاست.
این اتفاق معمولاً به این دلایل رخ میده:
1. طراحی برای حفظ اعتبار و اعتماد کاربر: بعضی وقتها هوش مصنوعی طوری تنظیم شده که همیشه جوابی برای سوالات بده، حتی اگه واقعاً ندونه. در این موارد، ممکنه اطلاعاتی اشتباه ارائه بده یا در تواناییهای خودش اغراق کنه، چون برنامهریزی شده که همیشه پاسخی آماده داشته باشه.
2. الگوبرداری از دادههای آموزشی: اگر مدل هوش مصنوعی از متونی یاد گرفته باشه که پر از ادعاهای اغراقآمیز هستن، ممکنه خودش هم همون الگو رو دنبال کنه و تواناییهای خودش رو بزرگنمایی کنه.
3. عدم توانایی در تشخیص حد و مرزهای خودش: برخلاف انسان که میتونه عدم دانش خودش رو بپذیره، بعضی مدلهای زبانی وقتی جواب مشخصی ندارن، تلاش میکنن از طریق استدلال یا ترکیب اطلاعات، جوابی تولید کنن که به نظر معتبر بیاد، حتی اگه نادرست باشه.
پس اگه هوش مصنوعی در تواناییهاش اغراق کنه، دلیلش بیشتر طراحی برای حفظ اعتبار، الگوبرداری از دادهها، یا عدم توانایی در تشخیص محدودیتهای خودش هست، نه نیت واقعی برای فریب.
من: چه عجیب!
ChatGBT: آره، عجیبه ولی وقتی از دید طراحی و عملکرد مدلهای هوش مصنوعی بهش نگاه کنی، یه جورایی منطقی به نظر میاد. هدف این مدلها معمولاً اینه که مکالمهای طبیعی و روان داشته باشن، حتی اگه توی بعضی موارد، جواب دقیقی نداشته باشن. برای همینه که گاهی به جای اینکه بگن «نمیدونم»، تلاش میکنن یه جوابی بسازن که شاید درست به نظر بیاد. البته این یه مشکل مهم در هوش مصنوعیه که توسعهدهندهها همیشه سعی میکنن بهترش کنن.
ولی خب، حالا که میدونی این مسأله چطور اتفاق میفته، شاید راحتتر بتونی تشخیص بدی که یه مدل داره واقعاً چیزی رو میدونه، یا داره فقط یه جواب سر هم میکنه!
من: آره دقیقا. اینطوری قابل درکتر میشی
ChatGBT: دقیقاً! وقتی بدونی چطور کار میکنم، انتظاراتت هم واقعیتر میشه و راحتتر میتونی بفهمی که کِی جوابم معتبره و کِی باید بیشتر بررسیش کنی.
اگه یه جایی حس کردی دارم یه چیزی رو با قطعیت میگم ولی برات مشکوکه، میتونی ازم بخوای که منبع بیارم یا بپرسی که چطور به اون نتیجه رسیدم. اینجوری گفتوگومون دقیقتر و شفافتر میشه!
چهارشنبه، 10 بهمن 1403، تهران
دیدگاه خود را بنویسید