माइक्रोसॉफ्ट मंगलवार को अपनी सबसे छोटी भाषा Phi-3 जारी की कृत्रिम होशियारी (एआई) मॉडल आज तक। छोटे AI मॉडल महत्वपूर्ण हैं, क्योंकि उनमें स्मार्टफ़ोन पर चलने की क्षमता होती है। नवीनतम AI मॉडल Phi-2 का उत्तराधिकारी है, जिसे दिसंबर 2023 में जारी किया गया था, और यह उच्च प्रशिक्षण डेटाबेस और बड़े मापदंडों के साथ आता है। बढ़े हुए पैरामीटर एआई मॉडल को अपने पूर्ववर्ती की तुलना में अधिक जटिल प्रश्नों को समझने और उनका जवाब देने में मदद करते हैं। यह भी दावा किया जाता है कि यह Phi-3 के लिए उपयोग किए गए मापदंडों की संख्या से 10 गुना से अधिक पर प्रशिक्षित मॉडल के बराबर है।
एक पूर्व-मुद्रण कागज़ छोटे भाषा मॉडल (एसएलएम) का विवरण arXiv पर प्रकाशित किया गया है। हालाँकि, चूंकि arXiv सहकर्मी समीक्षा नहीं करता है, इसलिए दावों की वैधता अभी तक सुनिश्चित नहीं की गई है। AI उत्साही Azure और Ollama के माध्यम से AI मॉडल का परीक्षण कर सकते हैं। गले लगाने वाला चेहरा सूची फाई-3-मिनी के लिए भी बनाया गया है लेकिन वजन अभी तक जारी नहीं किया गया है।
फाई-3 यहाँ है, और यह… अच्छा है:-)।
मैंने आपको यह महसूस कराने के लिए एक त्वरित संक्षिप्त डेमो बनाया कि फाई-3-मिनी (3.8बी) क्या कर सकता है। कल सुबह ओपन वेट रिलीज़ और अधिक घोषणाओं के लिए बने रहें!
(और आमतौर पर यह बेंचमार्क की सामान्य तालिका के बिना पूरा नहीं होगा!) pic.twitter.com/AWA7Km59rp
– सेबेस्टियन ब्यूबेक (@सेबेस्टियन ब्यूबेक) 23 अप्रैल 2024
प्रदर्शन के आधार पर, एआई मॉडल को 3.3 ट्रिलियन टोकन पर प्रशिक्षित किया गया है – डेटा की इकाइयाँ जिनमें शब्द, वाक्यांश या शब्दों के उप-खंड शामिल हैं जो एआई मॉडल को प्रशिक्षित करने के लिए सिस्टम में फीड किए जाते हैं। इसमें 3.8 बिलियन पैरामीटर भी शामिल हैं, जो चैटबॉट द्वारा समझी जा सकने वाली जटिलता के स्तर को उजागर करते हैं। वे अनिवार्य रूप से तंत्रिका कनेक्शन हैं जहां प्रत्येक बिंदु एक निश्चित विषय के बारे में ज्ञान है, और यह विभिन्न अन्य ऐसे बिंदुओं से जुड़ता है जिनमें मूल बिंदु से संबंधित जानकारी शामिल होती है।
Microsoft का दावा है – आंतरिक बेंचमार्किंग के आधार पर – कि कैबट मिक्सट्रल 8x7B और GPT-3.5 जैसे प्रतिद्वंद्वी मॉडल, जो SML से बहुत बड़े हैं। एआई को चैट प्रारूप के लिए संरेखित किया गया है, जिसका अर्थ है कि यह बातचीत संबंधी प्रश्नों का उत्तर दे सकता है। “हम 4.8T टोकन के लिए प्रशिक्षित 7B और 14B मॉडल के साथ कुछ प्रारंभिक पैरामीटर-स्केलिंग परिणाम भी प्रदान करते हैं, जिन्हें phi-3-छोटा और phi-3-मध्यम कहा जाता है, दोनों phi-3-मिनी की तुलना में काफी अधिक सक्षम हैं,” तकनीकी दिग्गज कहते हैं.
रॉयटर्स रिपोर्टों सरल कार्यों को करने के लिए डिज़ाइन किया गया AI मॉडल Microsoft Azure और Ollama पर भी होस्ट किया गया है। कंपनी ने अभी तक फी-3-मिनी के ओपन सोर्स लाइसेंस के बारे में विवरण साझा नहीं किया है। विशेष रूप से, Apache 2.0 लाइसेंस, जिसे हाल ही में ग्रोक AI जारी किए गएशैक्षणिक और व्यावसायिक दोनों उपयोग की अनुमति देता है।