T5 (مدل زبان)
T5 (Text-to-Text Transfer Transformer) شامل مجموعهای از مدلهای زبان بزرگ است که توسط هوش مصنوعی گوگل در سال 2019 ارائه شد. این مدلها بر پایه معماری ترانسفورمر طراحی شدهاند و ساختاری رمزگذار-رمزگشا دارند. در این ساختار، بخش رمزگذار متن ورودی را تحلیل کرده و پردازش میکند، در حالی که بخش رمزگشا وظیفه تولید متن خروجی را بر عهده دارد. این طراحی برای حل طیف گستردهای از مسائل پردازش زبان طبیعی (NLP) با عملکرد بالا توسعه یافته است.
نویسنده(های) اصلی | Google AI |
---|---|
انتشار اولیه | ۲۳ October ۲۰۱۹ |
انتشار پایدار | |
مخزن | https://github.com/google-research/text-to-text-transfer-transformer |
نوع | |
مجوز | Apache-2.0 |
وبگاه |
مدلهای T5 ابتدا با استفاده از مجموعههای عظیمی از دادههای متنی و کد، پیشآموزش داده میشوند. این فرایند آنها را قادر میسازد وظایف مختلف مبتنی بر متن را که مشابه آموزش اولیهشان است، بهخوبی انجام دهند. همچنین، این مدلها انعطافپذیر هستند و میتوان با تنظیم دقیق آنها، برای وظایف جدید یا متفاوت نیز استفاده کرد. این ویژگی باعث میشود که T5 در بسیاری از حوزههای پردازش زبان طبیعی کاربرد داشته باشد.
مدلهای T5 در زمینههای مختلفی کاربرد دارند، از جمله طراحی رباتهای گفتگو، سیستمهای پیشرفته ترجمه ماشینی، ابزارهای خلاصهسازی خودکار متن، تولید کدهای برنامهنویسی، و حتی در روباتیک. این تنوع کاربرد به دلیل معماری انعطافپذیر و توانایی بالای این مدل در پردازش زبان طبیعی و درک متن است.
آموزش دادن
ویرایشمدلهای T5 ابتدا بر روی مجموعه داده C4 (Corpus Crawled Colossal Clean)، شامل متن و کد جمعآوریشده از اینترنت، پیشآموزش داده شدند. این فرایند به مدل توانایی درک زبان عمومی و تولید متن را میدهد. پس از پیشآموزش، مدلها قابل تنظیم برای وظایف خاص هستند، بهطوریکه میتوانند دانش آموختهشده را برای عملکرد بهتر در برنامههای خاص مانند ترجمه، خلاصهسازی یا تولید متن تطبیق دهند. این انعطافپذیری، مدلهای T5 را برای کاربردهای متنوعی مناسب میسازد.
مدلهای T5 برای بسیاری از وظایف پردازش زبان طبیعی در قالبی ساده و یکپارچه طراحی شدهاند. در این روش، هر وظیفه به صورت <متن ورودی> -> <متن خروجی> فرموله شده است. این رویکرد باعث شده تا مدل بتواند مسائل متنوعی را با یک ساختار مشترک حل کند، از جمله ترجمه، خلاصهسازی، و تولید پاسخ برای سوالات. این فرمت متن به متن، قابلیت استفاده و آموزش مدل را بسیار سادهتر کرده است.
چند نمونه عبارتند از:
بازیابی متن خراب: Thank you <X> me to your party <Y> week.
-> <X> for inviting <Y> last <Z>
، که در آن <Z>
به معنای "پایان خروجی" است، و <X>
و <Y>
نشاندهنده جاهای خالی هستند که در گزارش اصلی "سنتینل" نامیده میشوند. .
ترجمه: translate English to German: That is good.
-> Das ist gut.
.
قضاوت در مورد مقبولیت دستوری یک جمله (جمله CoLA ): The course is jumping well.
-> not acceptable
سری T5 شامل چندین مدل با اندازهها و قابلیتهای متفاوت است، همه ترانسفورماتورهای رمزگذار-رمزگشا ، که در آن رمزگذار متن ورودی را پردازش میکند و رمزگشا متن خروجی را تولید میکند.
این مدل ها اغلب با تعداد پارامترهایشان متمایز می شوند که نشان دهنده پیچیدگی و ظرفیت بالقوه مدل است. مقاله اصلی [۳] 5 مدل زیر را گزارش کرد:
اسم | همه پارامتر ها | پارامتر های انکودر | پارامتر های دکودر | |||||
---|---|---|---|---|---|---|---|---|
کوچک | 76,956,160 | 35,330,816 | 41,625,344 | 6 | 512 | 2048 | 64 | 8 |
پایه | 247,577,856 | 109,628,544 | 137,949,312 | 12 | 768 | 3072 | 64 | 12 |
بزرگ | 770,567,168 | 334,939,648 | 435,627,520 | 24 | 1024 | 4096 | 64 | 16 |
3B | 2,884,497,408 | 1,240,909,824 | 1,643,587,584 | 24 | 1024 | 16384 | 128 | 32 |
11B | 11,340,220,416 | 4,864,791,552 | 6,475,428,864 | 24 | 1024 | 65536 | 128 | 128 |
در جدول فوق،
- : تعداد لایه ها در رمزگذار. همچنین تعداد لایه ها در رسیور. آنها همیشه تعداد لایه های یکسانی دارند.
- : تعداد سرهای توجه در هر بلوک توجه.
- : ابعاد بردارهای تعبیه شده.
- : ابعاد شبکه پیشخور در هر لایه رمزگذار و رمزگشا.
- : ابعاد بردارهای کلید و ارزش مورد استفاده در مکانیسم خودتوجهی.
توجه داشته باشید که بر خلاف ترانسفورماتورهای معمولی، مدل های 3B و 11B راضی نیستند
در مقایسه با ترانسفورماتور اصلی، از چند تغییر جزئی استفاده میکند: نرمالسازی لایهها بدون سوگیری افزودنی. قرار دادن نرمال سازی لایه در خارج از مسیر باقیمانده؛ تعبیه موقعیتی نسبی [۴]
برای همه آزمایشها، آنها از توکنایزر WordPiece با اندازه واژگان 32000 استفاده کردند. توکنایزر در ورودی و خروجی هر مدل مشترک است. این بر روی ترکیبی از دادههای انگلیسی ، آلمانی ، فرانسوی و رومانیایی از مجموعه دادههای C4 با نسبت 10:1:1:1 آموزش داده شد.
انواع
ویرایشچندین مدل بعدی از معماری T5 استفاده کردند که برای متمایز کردن آنها از قراردادهای نامگذاری غیر استاندارد استفاده شد. در این بخش سعی شده است موارد اصلی جمع آوری شود. لیست کاملی از انواع منتشر شده توسط Google Brain در مخزن GitHub برای T5X است. [۵]
برخی از مدل ها از ابتدا آموزش می بینند در حالی که برخی دیگر با شروع با یک مدل آموزش دیده قبلی آموزش می بینند. به طور پیش فرض، هر مدل از ابتدا آموزش داده می شود، مگر اینکه در غیر این صورت ذکر شده باشد.
- T5 کوچک، پایه، بزرگ، 3B، 11B (2019): مدل های اصلی. خطای یادکرد: برچسب
<ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
- T5 1.1 کوچک، پایه، بزرگ، XL، XXL: نسخه های بهبود یافته سری اصلی T5. اینها پارامترهای تقریباً برابری دارند. تابع فعالسازی به جای ReLU، GEGLU خطای یادکرد: برچسب
<ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
است. 3B و 11B به "XL" و "XXL" تغییر یافتند و شکل آنها تغییر کرد: خطای یادکرد: برچسب <ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
خطای یادکرد: برچسب <ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
خطای یادکرد: برچسب <ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
خطای یادکرد: برچسب <ref>
غیرمجاز؛ یادکردهای بدون محتوا باید نام داشته باشند. ().
اسم | همه پارامتر ها | پارامتر های انکودر | پارامتر های دکودر | |||||
---|---|---|---|---|---|---|---|---|
کوچک | 76,961,152 | 35,332,800 | 41,628,352 | 8 | 512 | 1024 | 64 | 6 |
پایه | 247,577,856 | 109,628,544 | 137,949,312 | 12 | 768 | 2048 | 64 | 12 |
بزرگ | 783,150,080 | 341,231,104 | 441,918,976 | 24 | 1024 | 2816 | 64 | 16 |
3B | 2,849,757,184 | 1,223,527,424 | 1,626,229,760 | 24 | 2048 | 5120 | 64 | 32 |
11B | 11,135,332,352 | 4,762,310,656 | 6,373,021,696 | 24 | 4096 | 10240 | 64 | 64 |
- T5 سازگار با LM (2021): مجموعهای از مدلها (از کوچک تا XXL) که از پستهای بازرسی سری T5 شروع شدند، اما بیشتر روی 100B توکن اضافی از C4 آموزش دیدند. [۶]
- سوئیچ ترانسفورماتور (2021): یک نوع ترکیبی از متخصصان T5، با جایگزینی لایههای پیشخور در بلوکهای رمزگذار و رمزگشا با مخلوطی از لایههای پیشخور خبره. [۷] [۸]
- T0 3B, 11B (2021): مجموعهای از مدلهایی که از پستهای بازرسی T5 سازگار با LM شروع میشوند و برای انجام وظایف فقط بر اساس دستور کار ( نفر شات ) آموزش داده میشوند. [۹] ورودی های مختلف در این سری از داده های تنظیم دقیق متفاوتی استفاده می کنند. [۱۰]
- ByT5 (2021): نسخه سطح بایت T5، آموزش داده شده بر روی مجموعه داده mC4 (چند زبانه C4). [۱۱] بر روی متن کدگذاری شده به صورت UTF-8 بایت، بدون توکنایزر عمل می کند.
- Flan-T5-XL (2022): مدلی که با یک ایست بازرسی T5 XL شروع شد و سپس بر روی مجموعه داده FLAN تنظیم شد . [۱۲] [۱۳] [۱۴][۱۵]
- T5X (2022): یک پیادهسازی مجدد مبتنی بر JAX از پایگاه کد اصلی T5 . مدل نیست . [۱۶] پایگاه کد اصلی T5 در TensorFlow با MeshTF پیاده سازی شد. [۱۷]
- UL2 20B (2022): مدلی با معماری مشابه سری T5 ، اما تا 20B مقیاسبندی شده و با هدف "مخلوط زدا" در C4 آموزش دیده است. [۱۸] این بر روی یک خوشه TPU به طور تصادفی آموزش داده شد، زمانی که یک دوره آموزشی به طور تصادفی به مدت یک ماه در حال اجرا ماند. [۱۹]
- Flan-UL2 20B (2022): دستورالعمل UL2 20B بر روی مجموعه داده FLAN تنظیم شده است. [۱۸] [۱۴]
- Pile-T5 (2024): دارای همان معماری T5 است، با این تفاوت که از توکنایزر Llama استفاده می کند. در The Pile آموزش داده شد. این در اندازه های پایه، بزرگ، XL، XXL عرضه شد. [۲۰]
برنامه های کاربردی
ویرایشمدل T5 خود یک مدل رمزگذار-رمزگشا است که به آن امکان می دهد برای دستورالعمل های زیر استفاده شود. رمزگذار دستورالعمل را رمزگذاری می کند و رمزگشا به صورت خودکار پاسخ را تولید می کند.
رمزگذار T5 را می توان به عنوان رمزگذار متن استفاده کرد، مانند BERT. این یک متن را به دنباله ای از بردارهای اعداد واقعی رمزگذاری می کند، که می تواند برای برنامه های کاربردی پایین دست استفاده شود. برای مثال، Google Imagen [۲۱] از T5-XXL به عنوان رمزگذار متن استفاده میکند، و بردارهای متن کدگذاریشده به عنوان شرطیسازی در مدل انتشار استفاده میشوند. به عنوان مثال دیگر، مدل انتشار AuraFlow [۲۲] از Pile-T5-XL استفاده می کند.
مراجع
ویرایشHS & PG
Yan
- ↑
{{cite book}}
: Empty citation (help) - ↑
{{cite book}}
: Empty citation (help) - ↑ Raffel, Colin; Shazeer, Noam; Roberts, Adam; Lee, Katherine; Narang, Sharan; Matena, Michael; Zhou, Yanqi; Li, Wei; Liu, Peter J. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer". Journal of Machine Learning Research. 21 (140): 1–67. arXiv:1910.10683. ISSN 1533-7928.
- ↑ Shaw, Peter; Uszkoreit, Jakob; Vaswani, Ashish (2018-04-12), Self-Attention with Relative Position Representations, arXiv:1803.02155
- ↑ "t5x/docs/models.md at main · google-research/t5x". GitHub (به انگلیسی). Retrieved 2024-08-05.
- ↑ Lester, Brian; Al-Rfou, Rami; Constant, Noah (2021-09-02), The Power of Scale for Parameter-Efficient Prompt Tuning, arXiv:2104.08691
- ↑ Fedus, William; Zoph, Barret; Shazeer, Noam (2022-06-16), Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity, arXiv:2101.03961
- ↑ "SwitchTransformers". huggingface.co. Retrieved 2024-08-05.
- ↑ Sanh, Victor; Webson, Albert; Raffel, Colin; Bach, Stephen H.; Sutawika, Lintang; Alyafeai, Zaid; Chaffin, Antoine; Stiegler, Arnaud; Scao, Teven Le (2022-03-17), Multitask Prompted Training Enables Zero-Shot Task Generalization, arXiv:2110.08207
- ↑ "bigscience/T0 · Hugging Face". huggingface.co. 2024-03-04. Retrieved 2024-08-21.
- ↑ Xue, Linting; Barua, Aditya; Constant, Noah; Al-Rfou, Rami; Narang, Sharan; Kale, Mihir; Roberts, Adam; Raffel, Colin (2022-03-25). "ByT5: Towards a Token-Free Future with Pre-trained Byte-to-Byte Models". Transactions of the Association for Computational Linguistics (به انگلیسی). 10: 291–306. arXiv:2105.13626. doi:10.1162/tacl_a_00461. ISSN 2307-387X.
- ↑ Chung, Hyung Won; Hou, Le; Longpre, Shayne; Zoph, Barret; Tay, Yi; Fedus, William; Li, Yunxuan; Wang, Xuezhi; Dehghani, Mostafa (2024). "Scaling Instruction-Finetuned Language Models". Journal of Machine Learning Research. 25 (70): 1–53. arXiv:2210.11416. ISSN 1533-7928.
- ↑ Longpre, Shayne; Hou, Le; Vu, Tu; Webson, Albert; Chung, Hyung Won; Tay, Yi; Zhou, Denny; Le, Quoc V.; Zoph, Barret (2023-07-03). "The Flan Collection: Designing Data and Methods for Effective Instruction Tuning". Proceedings of the 40th International Conference on Machine Learning (به انگلیسی). PMLR: 22631–22648. arXiv:2301.13688.
- ↑ ۱۴٫۰ ۱۴٫۱ google-research/FLAN, Google Research, 2024-08-03, retrieved 2024-08-05
- ↑ "google/flan-t5-xl · Hugging Face". huggingface.co. 2024-01-04. Retrieved 2024-08-05.
- ↑ Roberts, Adam; Chung, Hyung Won; Mishra, Gaurav; Levskaya, Anselm; Bradbury, James; Andor, Daniel; Narang, Sharan; Lester, Brian; Gaffney, Colin (2023). "Scaling Up Models and Data with t5x and seqio". Journal of Machine Learning Research. 24 (377): 1–8. ISSN 1533-7928.
- ↑ google-research/text-to-text-transfer-transformer, Google Research, 2024-08-21, retrieved 2024-08-21
- ↑ ۱۸٫۰ ۱۸٫۱ Tay, Yi; Dehghani, Mostafa; Tran, Vinh Q.; Garcia, Xavier; Wei, Jason; Wang, Xuezhi; Chung, Hyung Won; Shakeri, Siamak; Bahri, Dara (2023-02-28), UL2: Unifying Language Learning Paradigms, arXiv:2205.05131
- ↑ "Training great LLMs entirely from ground up in the wilderness as a startup". Yi Tay (به انگلیسی). Retrieved 2024-10-18.
- ↑ Sutawika, Lintang; Komatsuzaki, Aran; Raffel, Colin (2024-04-15). "Pile-T5". EleutherAI Blog (به انگلیسی). Retrieved 2024-05-05.
- ↑ "Imagen: Text-to-Image Diffusion Models". imagen.research.google. Retrieved 2024-08-23.
- ↑ "AuraFlow". huggingface.co. Retrieved 2024-08-23.