• Info@SaminRay.Com
  • 88866172 021
918

چالش Capability/Alignment در مدل‌های NLP

چالش Capability/Alignment به تعبیری دیگر مانند چالش Accuracy/Precision است.

               

چالش Capability/Alignment به تعبیری دیگر مانند چالش Accuracy/Precision است.

در زمینه یادگیری ماشین، اصطلاح capability به توانایی یک مدل برای انجام یک کار خاص یا مجموعه‌ای از وظایف اشاره دارد. capability یک مدل معمولاً با میزان توانایی آن برای بهینه‌سازی تابع هزینه خود (عبارت ریاضی که هدف مدل را مشخص می‌کند) ارزیابی می‌شود. برای مثال، مدلی که برای پیش‌بینی قیمت‌های بازار سهام طراحی شده است، ممکن است تابع هزینه‌ای داشته باشد که دقت پیش‌بینی‌های مدل را اندازه‌گیری می‌کند. اگر مدل قادر به پیش‌بینی دقیق حرکت قیمت سهام در طول زمان باشد، توانایی بالایی برای آن مدل در نظر گرفته می‌شود.

از سوی دیگر alignment به آنچه که ما واقعاً می‌خواهیم مدل انجام دهد در مقابل آنچه که برای انجام آن آموزش داده می‌شود مربوط می‌شود و سعی در پاسخ به این پرسش دارد که آیا تابع هزینه با مقاصد ما سازگار است؟ به‌عبارت‌دیگر به میزان همسویی اهداف و رفتار یک مدل باارزش‌ها و انتظارات انسانی اشاره دارد. به‌عنوان یک مثال عینی ساده، فرض کنید که ما یک مدل Classifier پرنده بادقت بالا می‌خواهیم آموزش دهیم تا پرندگان را به‌عنوان «گنجشک» یا «رابین» طبقه‌بندی کند و برای این کار از log loss که تفاوت بین توزیع احتمال پیش‌بینی‌شده توسط مدل و توزیع واقعی را اندازه‌گیری می‌کند به‌عنوان تابع هزینه استفاده می‌کنیم. پس از اتمام فرایند آموزش، مدل ممکن است log loss کمی داشته باشد در چنین شرایطی capability مدل‌بالا است؛ اما با عملکرد ضعیف در طبق بندی داده test مشخص می‌گردد که دقت آن در مسئله طبقه‌بندی ضعیف است. در واقع، چنین می‌توان گفت که log loss ارتباط درستی با موضوع دقت در مسئله طبقه‌بندی ندارد. این نمونه‌ای از misalignment است که در آن مدل قادر به بهینه‌سازی هدف آموزشی است؛ اما باهدف نهایی آن مسئله همسو نیست.

مدل‌های زبان جامع، مانند GPT-3، بر روی حجم وسیعی از داده‌های متنی از اینترنت آموزش‌دیده‌اند و می‌توانند متنی شبیه به انسان تولید کنند، اما همیشه این احتمال وجود دارد که خروجی‌هایی تولید کنند که با انتظارات یا مقادیر مطلوب انسان سازگار نباشد. در واقع، تابع هدف آنها توزیع احتمال بر روی توالی کلمات است که به آنها امکان می‌دهد کلمه بعدی را در یک دنباله پیش‌بینی کنند.

باتوجه‌به مطلب فوق چنین می‌توان گفت که مدل‌هایی مانند GPT-3 مدل‌هایی misalignment شده هستند. بااین‌حال، در کاربردهای عملی، این مدل‌ها برای انجام برخی امور ارزشمند هستند، پس باید چنین گفت که تفاوت آشکاری بین نحوه آموزش این مدل‌ها و روشی که مایل به استفاده از آنها هستیم وجود دارد. ازنقطه‌نظر ریاضیاتی، یک ماشین که توزیع آماری  توالی‌های کلمات را محاسبه می‌کند می‌تواند انتخاب بسیار مؤثری باشد، اما ما انسان‌ها زبان را از طریق انتخاب توالی کلمات متناسب با شرایط تولید می‌کنیم و در طی این فرایند به‌صورت ضمنی نیز از دانش زمینه‌ای و عقل سلیم خود نیز بهره می‌بریم. باتوجه‌به این موضوع، طبیعتاً زمانی که مدل‌های زبانی ماشینی مرسوم در برنامه‌هایی استفاده شوند که به درجه بالایی از اعتماد یا قابلیت اطمینان نیاز دارند، مانند سیستم‌های گفتگو یا دستیاران شخصی هوشمند، در جلب رضایت انسان‌ها دچار مشکل می‌شوند. این امر ناشی از misalignment شدن آنمی باشد.

مشکل  alignment در مدل‌های زبانی جامع معمولاً به‌صورت زیر ظاهر می‌شود:

  • عدم کمک: عدم پیروی از دستورالعمل‌های صریح کاربر.
  • توهمات: ساختن حقایق ساختگی یا اشتباه.
  • عدم تفسیرپذیری: درک اینکه چگونه مدل به یک تصمیم یا پیش‌بینی خاص رسیده است برای انسان دشوار است.
  • ایجاد خروجی مغرضانه یاسمی: یک مدل زبانی که بر روی داده‌های جانب‌دارانه/سمی آموزش‌دیده است، ممکن است آن را در خروجی خود بازتولید کند.

اما این مشکل alignment به طور مشخص از کجا ناشی می‌شود؟ آیا این درست است که مدل‌های زبانی به طور ذاتی در معرض misalignment قرار دارند؟ چگونه استراتژی‌های آموزش مدل زبانی می‌تواند سبب ایجاد misalignment شوند؟

Next token prediction و Masked language modeling تکنیک‌های اصلی مورداستفاده برای آموزش مدل‌های زبانی مانند transformerها هستند. در رویکرد اول، به مدل دنباله‌ای از کلمات به‌عنوان ورودی داده می‌شود و از آن خواسته می‌شود کلمه بعدی در دنباله را پیش‌بینی کند. به‌عنوان‌مثال، اگر به مدل جمله "The cat sat on the" به‌عنوان ورودی داده شود ممکن است "mat"، "chair" یا "floor" را به‌عنوان کلمه بعدی پیش‌بینی کند، زیرا احتمال وقوع این کلمات باتوجه‌به کلمات قبلی زیاد است. این مدل زبانی در واقع قادر است احتمال هر کلمه ممکن را باتوجه‌به دنباله قبلی تخمین بزند.

رویکرد Masked languege modeling گونه‌ای از Next token prediction است که در آن برخی از کلمات در جمله ورودی با یک نشانه خاص، مانند [MASK] جایگزین می‌شوند. سپس از مدل خواسته می‌شود تا کلمه صحیحی را که باید به‌جای [MASK] درج شود را پیش‌بینی کند. به‌عنوان‌مثال، اگر عبارت "The [MASK] sat on the" به مدل داده شود، ممکن است  [MASK]  را به‌صورت "cat"، "dog" یا "rabbit" پیش‌بینی کند.

یکی از مزیت‌های توابع هدف این تکنیک‌ها این است که به مدل اجازه می‌دهد تا ساختار آماری زبان، مانند توالی‌های رایج کلمات و الگوهای استفاده از کلمات را بیاموزد. این موضوع به‌طورکلی به مدل کمک می‌کند تا متن طبیعی و روان‌تری تولید کند و این یک گام اساسی در مرحله پیش آموزش هر مدل زبانی است.

بااین‌حال، این توابع هدف همچنین می‌توانند منجر به مشکلاتی نیز شوند، صرفاً به این دلیل که مدل قادر به تمایز بین یک خطای مهم و یک خطای بی‌اهمیت نیست. برای درک این موضوع مثال زیر را در نظر بگیرید، اگر به مدل جمله "The Roman Empire [MASK] with the reign of Augustus" به‌عنوان ورودی داده شود آنگاه مدل ممکن است " began" یا "ended" را پیش‌بینی کند، زیرا هر دوکلمه احتمال وقوع بالایی دارند و همچنین هر دو جمله از نظر تاریخی نیز صحیح هستند، حتی اگر انتخاب دوم معنای بسیار متفاوتی را بیان کند.

به‌طورکلی، این استراتژی‌های آموزشی می‌توانند منجر به misalignment مدل زبان برای برخی از وظایف پیچیده‌تر شوند، زیرا مدلی که فقط برای پیش‌بینی کلمه بعدی در یک دنباله متن آموزش‌داده‌شده است، ممکن است لزوماً مفاهیم سطح بالاتری از معنای آن را نیاموزد. در نتیجه به‌این‌ترتیب تعمیم‌پذیری مدل برای وظایف یا زمینه‌هایی که نیاز به درک عمیق‌تری از زبان دارند کاهش می‌یابد.

مرجع:

https://www.assemblyai.com/blog/how-chatgpt-actually-works/

 

 

وبلاگ

برچسب های مطالب