مایکروسافت: یک مدل هوش مصنوعی کارآمد ساخته که بر بروی cpu ها اجرا میشود.

چکیده

مایکروسافت BitNet b1.58 2B4T را معرفی کرد: مدل AI کارآمد ۱ بیتی (2B پارامتر) قابل اجرا روی CPU! سرعت بالا، مصرف کم، متن‌باز. اما چالش‌ها چیست؟ وبلاگ های ورت! همین الان بخوانید.

۱۴۰۴ جمعه ۳۰ فروردين
179 بازديد
مدل هوش مصنوعی BitNet مایکروسافت (b1.58): ۲ میلیارد پارامتر کارآمد با قابلیت اجرا بر روی CPU معمولی.

مایکروسافت و BitNet: هوش مصنوعی فوق کارآمدی که روی CPU اجرا می‌شود و قواعد بازی را تغییر می‌دهد؟

 

مسابقه تسلیحاتی در دنیای هوش مصنوعی (AI) اغلب با نام پردازنده‌های گرافیکی قدرتمند (GPU) گره خورده است. مدل‌های زبانی بزرگ و پیچیده امروزی برای آموزش و اجرا، به توان محاسباتی عظیمی نیاز دارند که عمدتاً توسط GPUهای گران‌قیمت و انرژی‌بر تأمین می‌شود. اما آیا راهی برای اجرای هوش مصنوعی پیشرفته روی سخت‌افزارهای در دسترس‌تر مانند CPUهای معمولی وجود دارد؟ به نظر می‌رسد محققان مایکروسافت گام بلندی در این مسیر برداشته‌اند.

 

خبر داغی که به تازگی منتشر شده، حاکی از آن است که محققان این غول فناوری مدلی به نام BitNet b1.58 2B4T را توسعه داده‌اند؛ یک مدل هوش مصنوعی فوق‌العاده کارآمد از نوع ۱-بیتی (1-bit) که نه‌تنها عملکردی قابل توجه دارد، بلکه قادر است بر روی پردازنده‌های مرکزی (CPU) معمولی، از جمله پردازنده‌های لپ‌تاپ‌ها، اجرا شود! این دستاورد می‌تواند پیامدهای گسترده‌ای برای آینده دسترسی به هوش مصنوعی داشته باشد. در این مقاله در های ورت (hiwert.com)، به اعماق این فناوری جدید می‌رویم، بررسی می‌کنیم که BitNet دقیقاً چیست، مدل جدید مایکروسافت چه ویژگی‌هایی دارد و آیا واقعاً می‌تواند نیاز به GPUهای گران‌قیمت را کاهش دهد؟

 

 

BitNet چیست؟ فشرده‌سازی هوشمندانه برای راندمان حداکثری

برای درک اهمیت مدل جدید مایکروسافت، ابتدا باید با مفهوم BitNet آشنا شویم. BitNetها نوعی مدل هوش مصنوعی هستند که از تکنیک فشرده‌سازی شدیدی به نام کوانتیزیشن ۱-بیتی (1-bit Quantization) استفاده می‌کنند.

 

در مدل‌های هوش مصنوعی استاندارد، "وزن‌ها" (Weights) – مقادیری که ساختار داخلی و دانش مدل را تعریف می‌کنند – معمولاً با دقت بالایی (مثلاً ۱۶ یا ۳۲ بیت) ذخیره می‌شوند. کوانتیزیشن فرآیندی است که تعداد بیت‌های مورد نیاز برای نمایش این وزن‌ها را کاهش می‌دهد تا مدل‌ها روی سخت‌افزارهایی با حافظه کمتر و سرعت بالاتر اجرا شوند.

 

BitNetها این فرآیند را به حد نهایی خود می‌رسانند و وزن‌ها را تنها به سه مقدار ممکن کوانتیزه می‌کنند: ۱-، ۰، و ۱+. این کاهش شدید در دقت نمایش وزن‌ها، از نظر تئوری، باعث می‌شود BitNetها به مراتب حافظه و انرژی کمتری نسبت به مدل‌های امروزی مصرف کنند و سرعت اجرای آن‌ها به طور قابل توجهی افزایش یابد. هدف نهایی، ساخت مدل‌هایی است که بتوانند روی دستگاه‌های با منابع محدود مانند گوشی‌های هوشمند، لپ‌تاپ‌های معمولی یا دستگاه‌های لبه (Edge Devices) به طور مؤثر اجرا شوند.

 

 

معرفی BitNet b1.58 2B4T مایکروسافت: غول ۲ میلیاردی کم‌ مصرف!

مدلی که محققان مایکروسافت معرفی کرده‌اند، BitNet b1.58 2B4T، ادعا می‌شود بزرگترین مدل ۱-بیتی است که تاکنون ساخته شده است. بیایید نگاهی به مشخصات کلیدی آن بیندازیم:

 

  • مقیاس بزرگ: این مدل دارای ۲ میلیارد پارامتر است (پارامتر تقریباً معادل همان وزن‌هاست)، که آن را در رده مدل‌های زبانی متوسط قرار می‌دهد.

 

  • آموزش گسترده: بر روی مجموعه داده عظیمی شامل ۴ تریلیون توکن آموزش دیده است (برای مقایسه، این حجم تقریباً معادل محتوای ۳۳ میلیون کتاب است!).

 

  • متن‌باز (Open Source): مایکروسافت این مدل را تحت لایسنس آزاد MIT منتشر کرده است که به محققان و توسعه‌دهندگان اجازه می‌دهد آزادانه از آن استفاده کرده و آن را توسعه دهند.

 

  • اجرا روی CPU: مهم‌ترین ویژگی ادعاشده، قابلیت اجرای این مدل روی CPUهای معمولی است. در گزارش‌ها حتی به اجرای آن روی پردازنده M2 اپل نیز اشاره شده است.

 

 

 

عملکرد BitNet b1.58 2B4T: سریع، کم‌مصرف، اما آیا بهترین است؟

محققان مایکروسافت ادعا می‌کنند که BitNet b1.58 2B4T با وجود فشرده‌سازی شدید، عملکردی بهتر از مدل‌های سنتی با اندازه مشابه دارد. تک‌کرانچ (TechCrunch) روز ۱۶ آوریل ۲۰۲۵ (دو روز پیش)، ضمن بررسی این مدل، به نتایج بنچمارک‌های ارائه شده توسط مایکروسافت اشاره کرد:

 

  • مقایسه با رقبا: در تست‌های انجام شده، BitNet b1.58 2B4T توانسته است در برخی بنچمارک‌های کلیدی مانند GSM8K (مسائل ریاضی دبستان) و PIQA (سنجش استدلال عقل سلیم فیزیکی)، مدل‌هایی مانند Llama 3.2 1B متا، Gemma 3 1B گوگل و Qwen 2.5 1.5B علی‌بابا را پشت سر بگذارد. البته این به معنای برتری مطلق در همه زمینه‌ها نیست، اما نشان می‌دهد که این مدل ۱-بیتی توانایی رقابت دارد.

 

  • سرعت و حافظه: شاید چشمگیرترین جنبه، کارایی این مدل باشد. ادعا می‌شود BitNet b1.58 2B4T به طور قابل توجهی (در برخی موارد تا دو برابر) سریع‌تر از مدل‌های هم‌اندازه خود اجرا می‌شود و در عین حال تنها کسری از حافظه (RAM) مورد نیاز آن‌ها را مصرف می‌کند.

این ترکیب از عملکرد قابل قبول و راندمان فوق‌العاده، پتانسیل BitNetها را برای کاربردهای آینده برجسته می‌کند.

 

 

 

اما و اگرهای BitNet: چالش سازگاری و فریمورک اختصاصی مایکروسافت

 

با وجود تمام این مزایای هیجان‌انگیز، یک چالش بزرگ در استفاده از BitNet b1.58 2B4T وجود دارد که نباید نادیده گرفته شود. تک‌ کرانچ در گزارش خود به درستی به این نکته اشاره کرده است که دستیابی به عملکرد بهینه این مدل، نیازمند استفاده از فریمورک نرم‌افزاری سفارشی مایکروسافت به نام bitnet.cpp است.

 

مشکل اصلی اینجاست که این فریمورک در حال حاضر محدودیت‌های سخت‌افزاری دارد و مهم‌تر از همه، از GPUها پشتیبانی نمی‌کند! این در حالی است که زیرساخت‌های فعلی هوش مصنوعی به شدت به GPUها وابسته هستند. عدم پشتیبانی از GPU و نیاز به یک فریمورک خاص، به این معنی است که استفاده گسترده و آسان از این مدل در حال حاضر با موانع جدی روبروست.

بنابراین، اگرچه معماری BitNet و مدل جدید مایکروسافت بسیار امیدوارکننده به نظر می‌رسند، به خصوص برای دستگاه‌های با منابع محدود، اما مسئله سازگاری و اکوسیستم نرم‌افزاری/سخت‌افزاری، چالش بزرگی است که باید قبل از پذیرش گسترده، حل شود.

 

 

BitNet مایکروسافت؛ قدمی جسورانه به سوی هوش مصنوعی در دسترس‌تر؟

 

رونمایی از BitNet b1.58 2B4T توسط محققان مایکروسافت، بدون شک گامی مهم و جسورانه در مسیر توسعه مدل‌های هوش مصنوعی کارآمدتر و در دسترس‌تر است. پتانسیل اجرای مدل‌های زبانی بزرگ و توانا بر روی CPUهای معمولی می‌تواند در آینده، هوش مصنوعی پیشرفته را به دستگاه‌های بیشتری بیاورد و نیاز به سخت‌افزارهای گران‌قیمت را کاهش دهد.

معماری ۱-بیتی BitNet نشان می‌دهد که می‌توان با فشرده‌سازی هوشمندانه، به تعادل قابل قبولی بین عملکرد و راندمان دست یافت. با این حال، چالش‌های مربوط به فریمورک اختصاصی و سازگاری سخت‌افزاری، موانعی هستند که مایکروسافت و جامعه تحقیقاتی باید بر آن‌ها غلبه کنند.