مایکروسافت: یک مدل هوش مصنوعی کارآمد ساخته که بر بروی cpu ها اجرا میشود.
مایکروسافت BitNet b1.58 2B4T را معرفی کرد: مدل AI کارآمد ۱ بیتی (2B پارامتر) قابل اجرا روی CPU! سرعت بالا، مصرف کم، متنباز. اما چالشها چیست؟ وبلاگ های ورت! همین الان بخوانید.
مایکروسافت و BitNet: هوش مصنوعی فوق کارآمدی که روی CPU اجرا میشود و قواعد بازی را تغییر میدهد؟
مسابقه تسلیحاتی در دنیای هوش مصنوعی (AI) اغلب با نام پردازندههای گرافیکی قدرتمند (GPU) گره خورده است. مدلهای زبانی بزرگ و پیچیده امروزی برای آموزش و اجرا، به توان محاسباتی عظیمی نیاز دارند که عمدتاً توسط GPUهای گرانقیمت و انرژیبر تأمین میشود. اما آیا راهی برای اجرای هوش مصنوعی پیشرفته روی سختافزارهای در دسترستر مانند CPUهای معمولی وجود دارد؟ به نظر میرسد محققان مایکروسافت گام بلندی در این مسیر برداشتهاند.
خبر داغی که به تازگی منتشر شده، حاکی از آن است که محققان این غول فناوری مدلی به نام BitNet b1.58 2B4T را توسعه دادهاند؛ یک مدل هوش مصنوعی فوقالعاده کارآمد از نوع ۱-بیتی (1-bit) که نهتنها عملکردی قابل توجه دارد، بلکه قادر است بر روی پردازندههای مرکزی (CPU) معمولی، از جمله پردازندههای لپتاپها، اجرا شود! این دستاورد میتواند پیامدهای گستردهای برای آینده دسترسی به هوش مصنوعی داشته باشد. در این مقاله در های ورت (hiwert.com)، به اعماق این فناوری جدید میرویم، بررسی میکنیم که BitNet دقیقاً چیست، مدل جدید مایکروسافت چه ویژگیهایی دارد و آیا واقعاً میتواند نیاز به GPUهای گرانقیمت را کاهش دهد؟
BitNet چیست؟ فشردهسازی هوشمندانه برای راندمان حداکثری
برای درک اهمیت مدل جدید مایکروسافت، ابتدا باید با مفهوم BitNet آشنا شویم. BitNetها نوعی مدل هوش مصنوعی هستند که از تکنیک فشردهسازی شدیدی به نام کوانتیزیشن ۱-بیتی (1-bit Quantization) استفاده میکنند.
در مدلهای هوش مصنوعی استاندارد، "وزنها" (Weights) – مقادیری که ساختار داخلی و دانش مدل را تعریف میکنند – معمولاً با دقت بالایی (مثلاً ۱۶ یا ۳۲ بیت) ذخیره میشوند. کوانتیزیشن فرآیندی است که تعداد بیتهای مورد نیاز برای نمایش این وزنها را کاهش میدهد تا مدلها روی سختافزارهایی با حافظه کمتر و سرعت بالاتر اجرا شوند.
BitNetها این فرآیند را به حد نهایی خود میرسانند و وزنها را تنها به سه مقدار ممکن کوانتیزه میکنند: ۱-، ۰، و ۱+. این کاهش شدید در دقت نمایش وزنها، از نظر تئوری، باعث میشود BitNetها به مراتب حافظه و انرژی کمتری نسبت به مدلهای امروزی مصرف کنند و سرعت اجرای آنها به طور قابل توجهی افزایش یابد. هدف نهایی، ساخت مدلهایی است که بتوانند روی دستگاههای با منابع محدود مانند گوشیهای هوشمند، لپتاپهای معمولی یا دستگاههای لبه (Edge Devices) به طور مؤثر اجرا شوند.
معرفی BitNet b1.58 2B4T مایکروسافت: غول ۲ میلیاردی کم مصرف!
مدلی که محققان مایکروسافت معرفی کردهاند، BitNet b1.58 2B4T، ادعا میشود بزرگترین مدل ۱-بیتی است که تاکنون ساخته شده است. بیایید نگاهی به مشخصات کلیدی آن بیندازیم:
- مقیاس بزرگ: این مدل دارای ۲ میلیارد پارامتر است (پارامتر تقریباً معادل همان وزنهاست)، که آن را در رده مدلهای زبانی متوسط قرار میدهد.
- آموزش گسترده: بر روی مجموعه داده عظیمی شامل ۴ تریلیون توکن آموزش دیده است (برای مقایسه، این حجم تقریباً معادل محتوای ۳۳ میلیون کتاب است!).
- متنباز (Open Source): مایکروسافت این مدل را تحت لایسنس آزاد MIT منتشر کرده است که به محققان و توسعهدهندگان اجازه میدهد آزادانه از آن استفاده کرده و آن را توسعه دهند.
- اجرا روی CPU: مهمترین ویژگی ادعاشده، قابلیت اجرای این مدل روی CPUهای معمولی است. در گزارشها حتی به اجرای آن روی پردازنده M2 اپل نیز اشاره شده است.

عملکرد BitNet b1.58 2B4T: سریع، کممصرف، اما آیا بهترین است؟
محققان مایکروسافت ادعا میکنند که BitNet b1.58 2B4T با وجود فشردهسازی شدید، عملکردی بهتر از مدلهای سنتی با اندازه مشابه دارد. تککرانچ (TechCrunch) روز ۱۶ آوریل ۲۰۲۵ (دو روز پیش)، ضمن بررسی این مدل، به نتایج بنچمارکهای ارائه شده توسط مایکروسافت اشاره کرد:
- مقایسه با رقبا: در تستهای انجام شده، BitNet b1.58 2B4T توانسته است در برخی بنچمارکهای کلیدی مانند GSM8K (مسائل ریاضی دبستان) و PIQA (سنجش استدلال عقل سلیم فیزیکی)، مدلهایی مانند Llama 3.2 1B متا، Gemma 3 1B گوگل و Qwen 2.5 1.5B علیبابا را پشت سر بگذارد. البته این به معنای برتری مطلق در همه زمینهها نیست، اما نشان میدهد که این مدل ۱-بیتی توانایی رقابت دارد.
- سرعت و حافظه: شاید چشمگیرترین جنبه، کارایی این مدل باشد. ادعا میشود BitNet b1.58 2B4T به طور قابل توجهی (در برخی موارد تا دو برابر) سریعتر از مدلهای هماندازه خود اجرا میشود و در عین حال تنها کسری از حافظه (RAM) مورد نیاز آنها را مصرف میکند.
این ترکیب از عملکرد قابل قبول و راندمان فوقالعاده، پتانسیل BitNetها را برای کاربردهای آینده برجسته میکند.
اما و اگرهای BitNet: چالش سازگاری و فریمورک اختصاصی مایکروسافت
با وجود تمام این مزایای هیجانانگیز، یک چالش بزرگ در استفاده از BitNet b1.58 2B4T وجود دارد که نباید نادیده گرفته شود. تک کرانچ در گزارش خود به درستی به این نکته اشاره کرده است که دستیابی به عملکرد بهینه این مدل، نیازمند استفاده از فریمورک نرمافزاری سفارشی مایکروسافت به نام bitnet.cpp است.
مشکل اصلی اینجاست که این فریمورک در حال حاضر محدودیتهای سختافزاری دارد و مهمتر از همه، از GPUها پشتیبانی نمیکند! این در حالی است که زیرساختهای فعلی هوش مصنوعی به شدت به GPUها وابسته هستند. عدم پشتیبانی از GPU و نیاز به یک فریمورک خاص، به این معنی است که استفاده گسترده و آسان از این مدل در حال حاضر با موانع جدی روبروست.
بنابراین، اگرچه معماری BitNet و مدل جدید مایکروسافت بسیار امیدوارکننده به نظر میرسند، به خصوص برای دستگاههای با منابع محدود، اما مسئله سازگاری و اکوسیستم نرمافزاری/سختافزاری، چالش بزرگی است که باید قبل از پذیرش گسترده، حل شود.
BitNet مایکروسافت؛ قدمی جسورانه به سوی هوش مصنوعی در دسترستر؟
رونمایی از BitNet b1.58 2B4T توسط محققان مایکروسافت، بدون شک گامی مهم و جسورانه در مسیر توسعه مدلهای هوش مصنوعی کارآمدتر و در دسترستر است. پتانسیل اجرای مدلهای زبانی بزرگ و توانا بر روی CPUهای معمولی میتواند در آینده، هوش مصنوعی پیشرفته را به دستگاههای بیشتری بیاورد و نیاز به سختافزارهای گرانقیمت را کاهش دهد.
معماری ۱-بیتی BitNet نشان میدهد که میتوان با فشردهسازی هوشمندانه، به تعادل قابل قبولی بین عملکرد و راندمان دست یافت. با این حال، چالشهای مربوط به فریمورک اختصاصی و سازگاری سختافزاری، موانعی هستند که مایکروسافت و جامعه تحقیقاتی باید بر آنها غلبه کنند.




