XGBoost
XGBoost[۱] یک کتابخانه نرمافزار آزاد است که چارچوب تقویت گرادیان برای ++C، جاوا، پایتون،[۲] R,[۳] و جولیا،[۴] پرل[۵] و اسکالا را فراهم میکند. در لینوکس،[۶] ویندوز، MacOS[۷] کار میکند. هدف ارائه یک کتابخانه «مقیاسپذیر، قابلحمل و توزیعشده» (gbm, GBRT, GBDT) است. علاوه بر اجرای یک ماشین واحد، همچنین از چارچوبهای پردازش توزیعشده آپاچی اسپارک، آپاچی هدوپ، آپاچی فلینک و داسک (نرمافزار) پشتیبانی میکند.[۸][۹] این الگوریتم انتخاب بسیاری از تیمهای برندهٔ شماری از رقابتهای یادگیری ماشین بود و محبوبیت و توجه زیادی به دست آوردهاست.[۱۰]
توسعهدهنده(ها) | The XGBoost Contributors |
---|---|
انتشار اولیه | ۲۷ مارس ۲۰۱۴ |
انتشار پایدار | ۰٫۷۰
/ ۳۰ دسامبر ۲۰۱۷ |
مخزن | |
نوشتهشده با | سی پلاسپلاس |
سیستمعامل | لینوکس، مکاواس، مایکروسافت ویندوز |
نوع | یادگیری ماشین |
مجوز | مجوز آپاچی ۲٫۰ |
وبگاه |
تاریخچه
ویرایشXGBoost در ابتدا به عنوان یک پروژه تحقیقاتی توسط تیانگی چن به عنوان بخشی از گروه یادگیری عمیق ماشینی توزیعشده آغاز شد.[۱۱] در ابتدا به عنوان یک برنامه ترمینال (terminal application) آغاز شد که میتوانست با استفاده از یک فایل پیکربندی libsvm پیکربندی شود. پس از پیروزی در چالش یادگیری ماشین هیگز، به عنوان بخشی از چرخهٔ مسابقه شناخته شد. پس از آن بستههای زبانهای پایتون و R ساخته شدند و اکنون برای بسیاری از زبانهای دیگر مثل جولیا، Scala، جاوا و غیره بستههایی دارد و در بین جامعه Kaggle که برای تعداد زیادی از رقابتها از آن استفاده شدهاست، محبوب است.[۱۲]
خیلی زود با چندین بسته دیگر مورد استفاده قرار گرفت و در حال حاضر برای کاربران پایتون همراه با کتابخانهٔ scikit-learn و برای کاربران R همراه با بسته caret ارائه میشود.
الگوریتم
ویرایشالگوریتم داده آموزشیِ ، یک تابع مشتقپذیر هزینه و یک نرخ یادگیریِ به عنوان ورودی میگیرد و به این شکل مدل نهائی را میسازدː
جوایز
ویرایش- جایزه جان چمبرز (۲۰۱۶)
- جایزه High Energy Physics meets Machine Learning (2016)
جستارهای وابسته
ویرایشمنابع
ویرایش- ↑ "GitHub project webpage".
- ↑ "Python Package Index PYPI: xgboost". Retrieved 2016-08-01.
- ↑ "CRAN package xgboost". Retrieved 2016-08-01.
- ↑ "Julia package listing xgboost". Archived from the original on 18 August 2016. Retrieved 2016-08-01.
- ↑ "CPAN module AI::XGBoost". Retrieved 2020-02-09.
- ↑ "Installing XGBoost for Anaconda in Windows". Retrieved 2016-08-01.
- ↑ "Installing XGBoost on Mac OSX". Retrieved 2016-08-01.
- ↑ "Dask Homepage".
{{cite web}}
: نگهداری CS1: url-status (link) - ↑ "Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation". xgboost.readthedocs.io. Retrieved 2021-07-15.
- ↑ "XGBoost - ML winning solutions (incomplete list)". Retrieved 2016-08-01.
- ↑ "Story and Lessons behind the evolution of XGBoost". Archived from the original on 7 August 2016. Retrieved 2016-08-01.
- ↑ "XGBoost - ML winning solutions (incomplete list)". Retrieved 2016-08-01.