chatgptcheat

واترمارک ChatGPT چگونه کار می‌کند و چرا ممکن است شکست بخورد؟

اُپن‌اِی‌آی با معرفی ChatGPT راهی را برای ایجاد خودکار محتوا معرفی کرده است، اما قصد دارد تا روشی را برای واترمارک کردن این محتوا نیز ایجاد نماید. سرچ انجین ژرنال به نحوه کارکرد این واترمارک پرداخته و این که ممکن است چگونه شکست بخورد.

واترمارک بر پایه کریپتوگرافی

واترمارک کردن متن در ChatGPT شامل رمزنگاری در قالب جاسازی الگوی کلمات، حروف و نقطه‌گذاری در قالب یک کد مخفی است.

اسکات آرونسون (دانشمند کامپیوتر) در ژوئن ۲۰۲۲ توسط OpenAI استخدام شد تا روی ایمنی و تراز هوش مصنوعی کار کند. ایمنی هوش مصنوعی یک زمینه تحقیقاتی است که به مطالعه راه‌هایی می‌پردازد که هوش مصنوعی ممکن است برای انسان ها مضر باشد و راه‌هایی برای جلوگیری از این نوع اختلالات منفی ایجاد کند. منظور از تراز هم این است که مطمئن شویم هوش مصنوعی همسو با اهداف بشری است.

آرونسون علت نیاز به واترمارک در خروجی‌های ChatGPT را جلوگیری از سرقت علمی یا تولید انبوه پروپاگاندا می‌داند.

واترمارکینگ ChatGPT چگونه کار می کند؟

واترمارک ChatGPT سیستمی است که یک الگوی آماری (مانند یک کد ) را در انتخاب کلمات و حتی علائم نگارشی جاسازی می کند. تغییر الگوی کلمات مورد استفاده در محتوای تولید شده راهی برای “واترمارک کردن” متن است تا تشخیص دهد آیا این متن محصول هوش مصنوعی بوده است یا خیر.

ترفندی که واترمارک کردن محتوای هوش مصنوعی را غیرقابل تشخیص می کند این است که توزیع کلمات ظاهری تصادفی شبیه به متن معمولی تولید شده توسط هوش مصنوعی دارد. از این به عنوان توزیع شبه تصادفی کلمات یاد می شود. شبه تصادفی یک سری تصادفی آماری از کلمات یا اعداد است که در واقع تصادفی نیستند.

واترمارک ChatGPT در حال حاضر استفاده نمی شود. با این حال اسکات آرونسون در OpenAI  اعلام کرده است که در طرح‌های آتی وجود دارد.

آرونسون نحوه عملکرد واترمارک ChatGPT را  مربوط به درک مفهوم «توکن‌سازی» می‌داند. توکن‌سازی مرحله‌ای است که در پردازش زبان طبیعی اتفاق می‌افتد، جایی که ماشین کلمات موجود در یک سند را می‌گیرد و آنها را به واحدهای معنادار مانند کلمات و جملات تجزیه می‌کند. از توکن‌سازی برای یادگیری ماشین استفاده می‌شود. فرآیند تولید متن به این صورت است که ماشین حدس می‌زند کدام توکن بعدی بر اساس توکن قبلی می‌آید. این کار با یک تابع ریاضی انجام می‌شود که احتمال اینکه توکن بعدی چه خواهد بود را تعیین می‌کند- چیزی که توزیع احتمال نامیده می‌شود. کلمه بعدی پیش‌بینی می‌شود اما تصادفی است.

خود واترمارکینگ همان چیزی است که آرونسون آن را شبه تصادفی توصیف می‌کند، به این معنا که برای وجود یک کلمه یا علامت نگارشی خاص یک دلیل ریاضی وجود دارد، اما هنوز از نظر آماری تصادفی است.

نگاهی عمیق‌تر به چت GPT

اگر بخواهیم به واترمارک جی‌پی‌تی نگاهی فنی‌تر بیاندازیم برای GPT، هر ورودی و خروجی رشته‌ای از نشانه‌ها است، که می‌توانند کلمات، علائم نگارشی، بخش‌هایی از کلمات یا بیشتر باشند. در مجموع حدود ۱۰ هزار نشانه وجود دارد. GPT دائماً یک توزیع احتمال روی توکن بعدی ایجاد می‌کند که مشروط به رشته توکن‌های قبلی است.

پس از اینکه شبکه عصبی توزیع را تولید کرد، سرور OpenAI در واقع یک توکن را با توجه به آن توزیع یا نسخه‌ای تغییر یافته از توزیع، بسته به پارامتری به نام «دما» یا temperature نمونه‌برداری می‌کند. تا زمانی که دما غیرصفر باشد، معمولاً در انتخاب نشانه بعدی تصادفی وجود دارد: می‌توانید همان دستور را بارها و بارها اجرا کنید و هر بار یک تکمیل شدن متفاوت (یعنی رشته‌ای از نشانه‌های خروجی) دریافت نمایید.

بنابراین برای واترمارک کردن، به جای انتخاب تصادفی توکن بعدی، ایده انتخاب آن به صورت شبه تصادفی با استفاده از یک تابع شبه تصادفی رمزنگاری انجام می‌شود که کلید آن فقط برای OpenAI شناخته شده است.

واترمارک برای کسانی که متن را می‌خوانند کاملاً طبیعی به نظر می‌رسد زیرا انتخاب کلمات مورد نظر از تصادفی بودن همه کلمات دیگر تقلید می‌کند.

چگونه واترمارک ChatGPT را می‌توان تشخیص داد؟

اسکات آرانسون به این موضوع اشاره کرد که راه‌های برای دور زدن این واترمارک وجود دارد. مثلا اگر خروجی GPT را به یک هوش‌مصنوعی شبیه جی‌پی‌تی بدهیم دیگر نمی‌توان واترمارک آن را تشخیص داد.

به نظر می‌رسد که می‌توان این واترمارکینگ را حداقل از ماه نوامبر که اظهارات فوق بیان شده است، شکست داد. هیچ نشانه‌ای مبنی بر اینکه واترمارکینگ در حال حاضر در حال استفاده است وجود ندارد. اما زمانی که مورد استفاده قرار گرفت، ممکن است ندانیم که آیا این حفره بسته شده است یا خیر.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *