T5 (Text-to-Text Transfer Transformer) شامل مجموعه‌ای از مدل‌های زبان بزرگ است که توسط هوش مصنوعی گوگل در سال 2019 ارائه شد. این مدل‌ها بر پایه معماری ترانسفورمر طراحی شده‌اند و ساختاری رمزگذار-رمزگشا دارند. در این ساختار، بخش رمزگذار متن ورودی را تحلیل کرده و پردازش می‌کند، در حالی که بخش رمزگشا وظیفه تولید متن خروجی را بر عهده دارد. این طراحی برای حل طیف گسترده‌ای از مسائل پردازش زبان طبیعی (NLP) با عملکرد بالا توسعه یافته است.

Text-to-Text Transfer Transformer (T5)
نویسنده(های)
اصلی
Google AI
انتشار اولیه۲۳ October ۲۰۱۹؛ ۵ سال پیش (۲۳ October ۲۰۱۹-خطا: زمان نامعتبر}})
انتشار پایدار
مخزنhttps://github.com/google-research/text-to-text-transfer-transformer
نوع
مجوزApache-2.0
وبگاه

مدل‌های T5 ابتدا با استفاده از مجموعه‌های عظیمی از داده‌های متنی و کد، پیش‌آموزش داده می‌شوند. این فرایند آنها را قادر می‌سازد وظایف مختلف مبتنی بر متن را که مشابه آموزش اولیه‌شان است، به‌خوبی انجام دهند. همچنین، این مدل‌ها انعطاف‌پذیر هستند و می‌توان با تنظیم دقیق آنها، برای وظایف جدید یا متفاوت نیز استفاده کرد. این ویژگی باعث می‌شود که T5 در بسیاری از حوزه‌های پردازش زبان طبیعی کاربرد داشته باشد.

مدل‌های T5 در زمینه‌های مختلفی کاربرد دارند، از جمله طراحی ربات‌های گفتگو، سیستم‌های پیشرفته ترجمه ماشینی، ابزارهای خلاصه‌سازی خودکار متن، تولید کدهای برنامه‌نویسی، و حتی در روباتیک. این تنوع کاربرد به دلیل معماری انعطاف‌پذیر و توانایی بالای این مدل در پردازش زبان طبیعی و درک متن است.

آموزش دادن

ویرایش

مدل‌های T5 ابتدا بر روی مجموعه داده C4 (Corpus Crawled Colossal Clean)، شامل متن و کد جمع‌آوری‌شده از اینترنت، پیش‌آموزش داده شدند. این فرایند به مدل توانایی درک زبان عمومی و تولید متن را می‌دهد. پس از پیش‌آموزش، مدل‌ها قابل تنظیم برای وظایف خاص هستند، به‌طوری‌که می‌توانند دانش آموخته‌شده را برای عملکرد بهتر در برنامه‌های خاص مانند ترجمه، خلاصه‌سازی یا تولید متن تطبیق دهند. این انعطاف‌پذیری، مدل‌های T5 را برای کاربردهای متنوعی مناسب می‌سازد.

مدل‌های T5 برای بسیاری از وظایف پردازش زبان طبیعی در قالبی ساده و یکپارچه طراحی شده‌اند. در این روش، هر وظیفه به صورت <متن ورودی> -> <متن خروجی> فرموله شده است. این رویکرد باعث شده تا مدل بتواند مسائل متنوعی را با یک ساختار مشترک حل کند، از جمله ترجمه، خلاصه‌سازی، و تولید پاسخ برای سوالات. این فرمت متن به متن، قابلیت استفاده و آموزش مدل را بسیار ساده‌تر کرده است.

 
چگونه یک T5 را می توان برای یک کار خلاصه سازی به خوبی تنظیم کرد. [۱]

چند نمونه عبارتند از:

بازیابی متن خراب: Thank you <X> me to your party <Y> week. -> <X> for inviting <Y> last <Z> ، که در آن <Z> به معنای "پایان خروجی" است، و <X> و <Y> نشان‌دهنده جاهای خالی هستند که در گزارش اصلی "سنتینل" نامیده می‌شوند. .

ترجمه: translate English to German: That is good. -> Das ist gut. .

قضاوت در مورد مقبولیت دستوری یک جمله (جمله CoLA ): The course is jumping well. -> not acceptable

 
ساختار رمزگذار-رمزگشا T5، ساختار توجه را نشان می دهد. در خود توجهی رمزگذار (مربع پایین)، همه نشانه های ورودی به یکدیگر توجه می کنند. در توجه متقابل رمزگذار-رمزگشا (مستطیل بالایی)، هر نشانه هدف به تمام نشانه های ورودی توجه می کند. در خودتوجهی رمزگشا (مثلث بالایی)، هر نشانه هدف فقط به نشانه های هدف فعلی و گذشته توجه می کند (علت). [۲]

سری T5 شامل چندین مدل با اندازه‌ها و قابلیت‌های متفاوت است، همه ترانسفورماتورهای رمزگذار-رمزگشا ، که در آن رمزگذار متن ورودی را پردازش می‌کند و رمزگشا متن خروجی را تولید می‌کند.

این مدل ها اغلب با تعداد پارامترهایشان متمایز می شوند که نشان دهنده پیچیدگی و ظرفیت بالقوه مدل است. مقاله اصلی [۳] 5 مدل زیر را گزارش کرد:

اسم همه پارامتر ها پارامتر های انکودر پارامتر های دکودر          
کوچک 76,956,160 35,330,816 41,625,344 6 512 2048 64 8
پایه 247,577,856 109,628,544 137,949,312 12 768 3072 64 12
بزرگ 770,567,168 334,939,648 435,627,520 24 1024 4096 64 16
3B 2,884,497,408 1,240,909,824 1,643,587,584 24 1024 16384 128 32
11B 11,340,220,416 4,864,791,552 6,475,428,864 24 1024 65536 128 128

در جدول فوق،

  •   : تعداد لایه ها در رمزگذار. همچنین تعداد لایه ها در رسیور. آنها همیشه تعداد لایه های یکسانی دارند.
  •   : تعداد سرهای توجه در هر بلوک توجه.
  •   : ابعاد بردارهای تعبیه شده.
  •   : ابعاد شبکه پیشخور در هر لایه رمزگذار و رمزگشا.
  •   : ابعاد بردارهای کلید و ارزش مورد استفاده در مکانیسم خودتوجهی.

توجه داشته باشید که بر خلاف ترانسفورماتورهای معمولی، مدل های 3B و 11B راضی نیستند  

در مقایسه با ترانسفورماتور اصلی، از چند تغییر جزئی استفاده می‌کند: نرمال‌سازی لایه‌ها بدون سوگیری افزودنی. قرار دادن نرمال سازی لایه در خارج از مسیر باقیمانده؛ تعبیه موقعیتی نسبی [۴]

برای همه آزمایش‌ها، آنها از توکنایزر WordPiece با اندازه واژگان 32000 استفاده کردند. توکنایزر در ورودی و خروجی هر مدل مشترک است. این بر روی ترکیبی از داده‌های انگلیسی ، آلمانی ، فرانسوی و رومانیایی از مجموعه داده‌های C4 با نسبت 10:1:1:1 آموزش داده شد.

انواع

ویرایش

چندین مدل بعدی از معماری T5 استفاده کردند که برای متمایز کردن آنها از قراردادهای نامگذاری غیر استاندارد استفاده شد. در این بخش سعی شده است موارد اصلی جمع آوری شود. لیست کاملی از انواع منتشر شده توسط Google Brain در مخزن GitHub برای T5X است. [۵]

برخی از مدل ها از ابتدا آموزش می بینند در حالی که برخی دیگر با شروع با یک مدل آموزش دیده قبلی آموزش می بینند. به طور پیش فرض، هر مدل از ابتدا آموزش داده می شود، مگر اینکه در غیر این صورت ذکر شده باشد.

  • T5 کوچک، پایه، بزرگ، 3B، 11B (2019): مدل های اصلی. خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().

  • T5 1.1 کوچک، پایه، بزرگ، XL، XXL: نسخه های بهبود یافته سری اصلی T5. اینها پارامترهای تقریباً برابری دارند. تابع فعال‌سازی به جای ReLU، GEGLU خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().

است. 3B و 11B به "XL" و "XXL" تغییر یافتند و شکل آنها تغییر کرد: خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. (). خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. (). خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().

خطای یادکرد: برچسب <ref> غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().

اسم همه پارامتر ها پارامتر های انکودر پارامتر های دکودر          
کوچک 76,961,152 35,332,800 41,628,352 8 512 1024 64 6
پایه 247,577,856 109,628,544 137,949,312 12 768 2048 64 12
بزرگ 783,150,080 341,231,104 441,918,976 24 1024 2816 64 16
3B 2,849,757,184 1,223,527,424 1,626,229,760 24 2048 5120 64 32
11B 11,135,332,352 4,762,310,656 6,373,021,696 24 4096 10240 64 64
    • T5 سازگار با LM (2021): مجموعه‌ای از مدل‌ها (از کوچک تا XXL) که از پست‌های بازرسی سری T5 شروع شدند، اما بیشتر روی 100B توکن اضافی از C4 آموزش دیدند. [۶]
    • سوئیچ ترانسفورماتور (2021): یک نوع ترکیبی از متخصصان T5، با جایگزینی لایه‌های پیش‌خور در بلوک‌های رمزگذار و رمزگشا با مخلوطی از لایه‌های پیش‌خور خبره. [۷] [۸]
    • T0 3B, 11B (2021): مجموعه‌ای از مدل‌هایی که از پست‌های بازرسی T5 سازگار با LM شروع می‌شوند و برای انجام وظایف فقط بر اساس دستور کار ( نفر شات ) آموزش داده می‌شوند. [۹] ورودی های مختلف در این سری از داده های تنظیم دقیق متفاوتی استفاده می کنند. [۱۰]
    • ByT5 (2021): نسخه سطح بایت T5، آموزش داده شده بر روی مجموعه داده mC4 (چند زبانه C4). [۱۱] بر روی متن کدگذاری شده به صورت UTF-8 بایت، بدون توکنایزر عمل می کند.
    • Flan-T5-XL (2022): مدلی که با یک ایست بازرسی T5 XL شروع شد و سپس بر روی مجموعه داده FLAN تنظیم شد . [۱۲] [۱۳] [۱۴][۱۵]
    • T5X (2022): یک پیاده‌سازی مجدد مبتنی بر JAX از پایگاه کد اصلی T5 . مدل نیست . [۱۶] پایگاه کد اصلی T5 در TensorFlow با MeshTF پیاده سازی شد. [۱۷]
    • UL2 20B (2022): مدلی با معماری مشابه سری T5 ، اما تا 20B مقیاس‌بندی شده و با هدف "مخلوط زدا" در C4 آموزش دیده است. [۱۸] این بر روی یک خوشه TPU به طور تصادفی آموزش داده شد، زمانی که یک دوره آموزشی به طور تصادفی به مدت یک ماه در حال اجرا ماند. [۱۹]
    • Flan-UL2 20B (2022): دستورالعمل UL2 20B بر روی مجموعه داده FLAN تنظیم شده است. [۱۸] [۱۴]
    • Pile-T5 (2024): دارای همان معماری T5 است، با این تفاوت که از توکنایزر Llama استفاده می کند. در The Pile آموزش داده شد. این در اندازه های پایه، بزرگ، XL، XXL عرضه شد. [۲۰]

برنامه های کاربردی

ویرایش

مدل T5 خود یک مدل رمزگذار-رمزگشا است که به آن امکان می دهد برای دستورالعمل های زیر استفاده شود. رمزگذار دستورالعمل را رمزگذاری می کند و رمزگشا به صورت خودکار پاسخ را تولید می کند.

رمزگذار T5 را می توان به عنوان رمزگذار متن استفاده کرد، مانند BERT. این یک متن را به دنباله ای از بردارهای اعداد واقعی رمزگذاری می کند، که می تواند برای برنامه های کاربردی پایین دست استفاده شود. برای مثال، Google Imagen [۲۱] از T5-XXL به عنوان رمزگذار متن استفاده می‌کند، و بردارهای متن کدگذاری‌شده به عنوان شرطی‌سازی در مدل انتشار استفاده می‌شوند. به عنوان مثال دیگر، مدل انتشار AuraFlow [۲۲] از Pile-T5-XL استفاده می کند.

مراجع

ویرایش

HS & PG

Yan

  1. {{cite book}}: Empty citation (help)
  2. {{cite book}}: Empty citation (help)
  3. Raffel, Colin; Shazeer, Noam; Roberts, Adam; Lee, Katherine; Narang, Sharan; Matena, Michael; Zhou, Yanqi; Li, Wei; Liu, Peter J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer". Journal of Machine Learning Research. 21 (140): 1–67. arXiv:1910.10683. ISSN 1533-7928.
  4. Shaw, Peter; Uszkoreit, Jakob; Vaswani, Ashish (2018-04-12), Self-Attention with Relative Position Representations, arXiv:1803.02155
  5. "t5x/docs/models.md at main · google-research/t5x". GitHub (به انگلیسی). Retrieved 2024-08-05.
  6. Lester, Brian; Al-Rfou, Rami; Constant, Noah (2021-09-02), The Power of Scale for Parameter-Efficient Prompt Tuning, arXiv:2104.08691
  7. Fedus, William; Zoph, Barret; Shazeer, Noam (2022-06-16), Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity, arXiv:2101.03961
  8. "SwitchTransformers". huggingface.co. Retrieved 2024-08-05.
  9. Sanh, Victor; Webson, Albert; Raffel, Colin; Bach, Stephen H.; Sutawika, Lintang; Alyafeai, Zaid; Chaffin, Antoine; Stiegler, Arnaud; Scao, Teven Le (2022-03-17), Multitask Prompted Training Enables Zero-Shot Task Generalization, arXiv:2110.08207
  10. "bigscience/T0 · Hugging Face". huggingface.co. 2024-03-04. Retrieved 2024-08-21.
  11. Xue, Linting; Barua, Aditya; Constant, Noah; Al-Rfou, Rami; Narang, Sharan; Kale, Mihir; Roberts, Adam; Raffel, Colin (2022-03-25). "ByT5: Towards a Token-Free Future with Pre-trained Byte-to-Byte Models". Transactions of the Association for Computational Linguistics (به انگلیسی). 10: 291–306. arXiv:2105.13626. doi:10.1162/tacl_a_00461. ISSN 2307-387X.
  12. Chung, Hyung Won; Hou, Le; Longpre, Shayne; Zoph, Barret; Tay, Yi; Fedus, William; Li, Yunxuan; Wang, Xuezhi; Dehghani, Mostafa (2024). "Scaling Instruction-Finetuned Language Models". Journal of Machine Learning Research. 25 (70): 1–53. arXiv:2210.11416. ISSN 1533-7928.
  13. Longpre, Shayne; Hou, Le; Vu, Tu; Webson, Albert; Chung, Hyung Won; Tay, Yi; Zhou, Denny; Le, Quoc V.; Zoph, Barret (2023-07-03). "The Flan Collection: Designing Data and Methods for Effective Instruction Tuning". Proceedings of the 40th International Conference on Machine Learning (به انگلیسی). PMLR: 22631–22648. arXiv:2301.13688.
  14. ۱۴٫۰ ۱۴٫۱ google-research/FLAN, Google Research, 2024-08-03, retrieved 2024-08-05
  15. "google/flan-t5-xl · Hugging Face". huggingface.co. 2024-01-04. Retrieved 2024-08-05.
  16. Roberts, Adam; Chung, Hyung Won; Mishra, Gaurav; Levskaya, Anselm; Bradbury, James; Andor, Daniel; Narang, Sharan; Lester, Brian; Gaffney, Colin (2023). "Scaling Up Models and Data with t5x and seqio". Journal of Machine Learning Research. 24 (377): 1–8. ISSN 1533-7928.
  17. google-research/text-to-text-transfer-transformer, Google Research, 2024-08-21, retrieved 2024-08-21
  18. ۱۸٫۰ ۱۸٫۱ Tay, Yi; Dehghani, Mostafa; Tran, Vinh Q.; Garcia, Xavier; Wei, Jason; Wang, Xuezhi; Chung, Hyung Won; Shakeri, Siamak; Bahri, Dara (2023-02-28), UL2: Unifying Language Learning Paradigms, arXiv:2205.05131
  19. "Training great LLMs entirely from ground up in the wilderness as a startup". Yi Tay (به انگلیسی). Retrieved 2024-10-18.
  20. Sutawika, Lintang; Komatsuzaki, Aran; Raffel, Colin (2024-04-15). "Pile-T5". EleutherAI Blog (به انگلیسی). Retrieved 2024-05-05.
  21. "Imagen: Text-to-Image Diffusion Models". imagen.research.google. Retrieved 2024-08-23.
  22. "AuraFlow". huggingface.co. Retrieved 2024-08-23.