खुला
बंद करना

किस कैश को दो भागों में बांटा गया है. प्रोसेसर कैश का क्या मतलब है, L1, L2, L3 में क्या अंतर है। पैकिंग और अनपैकिंग

अधिकांश आधुनिक डेस्कटॉप कंप्यूटरों में चिप्स में चार कोर होते हैं, लेकिन चिप निर्माताओं ने पहले ही छह कोर पर जाने की योजना की घोषणा कर दी है, और 16-कोर प्रोसेसर आज भी हाई-एंड सर्वर के लिए असामान्य नहीं हैं।

जितने अधिक कोर होंगे, एक ही समय में एक साथ काम करते समय सभी कोर के बीच मेमोरी वितरित करने की समस्या उतनी ही अधिक होगी। कोर की संख्या में वृद्धि के साथ, डेटा संसाधित करते समय कोर को प्रबंधित करने में लगने वाले समय को कम करना तेजी से फायदेमंद हो रहा है - क्योंकि डेटा विनिमय की गति प्रोसेसर की गति और मेमोरी में डेटा प्रोसेसिंग से पीछे है। आप भौतिक रूप से किसी और के तेज़ कैश तक पहुंच सकते हैं, या आप अपने स्वयं के धीमे कैश तक पहुंच सकते हैं, लेकिन डेटा स्थानांतरण समय बचा सकते हैं। कार्य इस तथ्य से जटिल है कि प्रोग्राम द्वारा अनुरोधित मेमोरी की मात्रा स्पष्ट रूप से प्रत्येक प्रकार की कैश मेमोरी की मात्रा से मेल नहीं खाती है।

भौतिक रूप से, केवल बहुत ही सीमित मात्रा में मेमोरी को यथासंभव प्रोसेसर के करीब रखा जा सकता है - प्रोसेसर का L1 कैश, जिसकी मात्रा बेहद नगण्य है। मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के कंप्यूटर साइंस और आर्टिफिशियल इंटेलिजेंस प्रयोगशाला के शोधकर्ताओं डैनियल सांचेज़, पो-एन त्साई और नाथन बेकमैन ने एक कंप्यूटर को वास्तविक समय में कार्यक्रमों के लचीले पदानुक्रम के लिए इसकी विभिन्न प्रकार की मेमोरी को कॉन्फ़िगर करना सिखाया। नई प्रणाली, जिसे जेंगा कहा जाता है, मेमोरी तक प्रोग्राम पहुंच की वॉल्यूमेट्रिक आवश्यकताओं और आवृत्ति का विश्लेषण करती है और संयोजन में 3 प्रकार के प्रोसेसर कैश में से प्रत्येक की शक्ति को पुनर्वितरित करती है जो बढ़ी हुई दक्षता और ऊर्जा बचत प्रदान करती है।


आरंभ करने के लिए, शोधकर्ताओं ने सिंगल-कोर प्रोसेसर के लिए प्रोग्राम पर काम करते समय स्थिर और गतिशील मेमोरी को संयोजित करते समय प्रदर्शन में वृद्धि का परीक्षण किया और प्राथमिक पदानुक्रम प्राप्त किया - कब किस संयोजन का उपयोग करना बेहतर है। 2 प्रकार की मेमोरी से या एक से। दो मापदंडों का मूल्यांकन किया गया: प्रत्येक कार्यक्रम के संचालन के दौरान सिग्नल विलंब (विलंबता) और ऊर्जा खपत। लगभग 40% प्रोग्राम मेमोरी प्रकारों के संयोजन के साथ बदतर काम करने लगे, बाकी - बेहतर। यह रिकॉर्ड करने के बाद कि कौन से प्रोग्राम को मिश्रित प्रदर्शन "पसंद" है और कौन सा मेमोरी आकार पसंद है, शोधकर्ताओं ने अपना जेंगा सिस्टम बनाया।

उन्होंने 36 कोर वाले वर्चुअल कंप्यूटर पर 4 प्रकार के प्रोग्रामों का वस्तुतः परीक्षण किया। परीक्षण किए गए प्रोग्राम:

  • ओमनेट - ऑब्जेक्टिव मॉड्यूलर नेटवर्क टेस्टबेड, सी सिमुलेशन लाइब्रेरी और नेटवर्क सिमुलेशन टूल प्लेटफॉर्म (चित्र में नीला)
  • एमसीएफ - मेटा कंटेंट फ्रेमवर्क (लाल रंग)
  • एस्टार - वर्चुअल रियलिटी डिस्प्ले सॉफ्टवेयर (हरा)
  • bzip2 - संग्रहकर्ता (बैंगनी रंग)


चित्र दिखाता है कि प्रत्येक प्रोग्राम का डेटा कहाँ और कैसे संसाधित किया गया था। अक्षर इंगित करते हैं कि प्रत्येक एप्लिकेशन कहां चलता है (प्रत्येक चतुर्थांश में एक), रंग इंगित करते हैं कि उसका डेटा कहां स्थित है, और छायांकन मौजूद होने पर वर्चुअल पदानुक्रम के दूसरे स्तर को इंगित करता है।

कैश स्तर

सीपीयू कैश को कई स्तरों में विभाजित किया गया है। यूनिवर्सल प्रोसेसर के लिए - 3 तक। सबसे तेज़ मेमोरी प्रथम स्तर कैश है - एल 1-कैश, क्योंकि यह प्रोसेसर के समान चिप पर स्थित है। एक निर्देश कैश और एक डेटा कैश से मिलकर बनता है। L1 कैश के बिना कुछ प्रोसेसर कार्य नहीं कर सकते। L1 कैश प्रोसेसर आवृत्ति पर काम करता है और इसे हर घड़ी चक्र तक पहुँचा जा सकता है। एक साथ कई पढ़ने/लिखने के कार्य करना अक्सर संभव होता है। वॉल्यूम आमतौर पर छोटा होता है - 128 KB से अधिक नहीं।

दूसरे स्तर का कैश, L2, L1 कैश के साथ इंटरैक्ट करता है। यह दूसरा सबसे तेज़ है. यह आमतौर पर या तो ऑन-चिप में स्थित होता है, जैसे L1, या कोर के करीब, जैसे कि प्रोसेसर कार्ट्रिज में। पुराने प्रोसेसर में, मदरबोर्ड पर चिप्स का एक सेट होता है। L2 कैश वॉल्यूम 128 KB से 12 MB तक. आधुनिक मल्टी-कोर प्रोसेसर में, एक ही चिप पर स्थित दूसरे स्तर का कैश, एक अलग मेमोरी है - 8 एमबी के कुल कैश आकार के साथ, प्रत्येक कोर 2 एमबी के लिए खाता है। आमतौर पर, कोर चिप पर स्थित L2 कैश की विलंबता 8 से 20 कोर क्लॉक चक्र तक होती है। सीमित मेमोरी क्षेत्र तक कई पहुंच वाले कार्यों में, उदाहरण के लिए, एक डीबीएमएस, इसका पूर्ण उपयोग उत्पादकता को दस गुना बढ़ा देता है।

L3 कैश आमतौर पर और भी बड़ा होता है, हालाँकि L2 कैश की तुलना में कुछ धीमा होता है (इस तथ्य के कारण कि L2 और L3 के बीच की बस L1 और L2 के बीच की बस की तुलना में संकरी होती है)। L3 आमतौर पर CPU कोर से अलग स्थित होता है, लेकिन बड़ा हो सकता है - 32 एमबी से अधिक। L3 कैश पिछले कैश की तुलना में धीमा है, लेकिन फिर भी RAM से तेज़ है। मल्टीप्रोसेसर सिस्टम में यह आम उपयोग में है। तीसरे स्तर के कैश का उपयोग कार्यों की एक बहुत ही संकीर्ण श्रेणी में उचित है और यह न केवल प्रदर्शन में वृद्धि प्रदान कर सकता है, बल्कि, इसके विपरीत, सिस्टम प्रदर्शन में समग्र कमी ला सकता है।

दूसरे और तीसरे स्तर के कैश को अक्षम करना गणितीय समस्याओं में सबसे उपयोगी होता है जब डेटा की मात्रा कैश आकार से कम होती है। इस स्थिति में, आप सभी डेटा को एक बार में L1 कैश में लोड कर सकते हैं, और फिर इसे संसाधित कर सकते हैं।


जेंगा समय-समय पर संसाधन सीमाओं और एप्लिकेशन व्यवहार को ध्यान में रखते हुए, डेटा विनिमय को कम करने के लिए ओएस स्तर पर वर्चुअल पदानुक्रम को पुन: कॉन्फ़िगर करता है। प्रत्येक पुनर्विन्यास में चार चरण होते हैं।

जेंगा न केवल इस आधार पर डेटा वितरित करता है कि कौन से प्रोग्राम भेजे जा रहे हैं - वे जो बड़ी सिंगल-स्पीड मेमोरी पसंद करते हैं या जो मिश्रित कैश की गति पसंद करते हैं, बल्कि संसाधित किए जा रहे डेटा के लिए मेमोरी कोशिकाओं की भौतिक निकटता पर भी निर्भर करता है। भले ही प्रोग्राम को डिफ़ॉल्ट रूप से या पदानुक्रम के अनुसार किस प्रकार के कैश की आवश्यकता हो। मुख्य बात सिग्नल विलंब और ऊर्जा खपत को कम करना है। प्रोग्राम कितने प्रकार की मेमोरी को "पसंद" करता है, इसके आधार पर जेंगा प्रत्येक वर्चुअल पदानुक्रम की विलंबता को एक या दो स्तरों के साथ मॉडल करता है। दो-स्तरीय पदानुक्रम एक सतह बनाते हैं, एकल-स्तरीय पदानुक्रम एक वक्र बनाते हैं। जेंगा फिर वीएल1 के आयामों में न्यूनतम विलंब का अनुमान लगाता है, जिसके परिणामस्वरूप दो वक्र बनते हैं। अंत में, जेंगा सर्वोत्तम पदानुक्रम (यानी वीएल 1 आकार) का चयन करने के लिए इन वक्रों का उपयोग करता है।

जेंगा के प्रयोग से उल्लेखनीय प्रभाव पड़ा है। वर्चुअल 36-कोर चिप ने 30 प्रतिशत तेजी से काम करना शुरू कर दिया और 85 प्रतिशत कम ऊर्जा का उपयोग किया। बेशक, अभी के लिए जेंगा एक कामकाजी कंप्यूटर का अनुकरण मात्र है और आपको इस कैश के वास्तविक उदाहरण देखने में कुछ समय लगेगा और चिप निर्माताओं को तकनीक पसंद आने पर इसे अपनाने में भी कुछ समय लगेगा।

एक पारंपरिक 36 परमाणु मशीन का विन्यास

  • प्रोसेसर. 36 कोर, x86-64 ISA, 2.4 GHz, सिल्वरमोंट-जैसा OOO: 8B-वाइड
    ifetch; 512×10-बिट बीएचएसआर + 1024×2-बिट पीएचटी, 2-वे डिकोड/इश्यू/रीनेम/कमिट, 32-एंट्री आईक्यू और आरओबी, 10-एंट्री एलक्यू, 16-एंट्री एसक्यू के साथ 2-लेवल बीपीआरडी; 371 पीजे/निर्देश, 163 मेगावाट/कोर स्थैतिक शक्ति
  • L1 कैश. 32 केबी, 8-वे सेट-एसोसिएटिव, स्प्लिट डेटा और निर्देश कैश,
    3-चक्र विलंबता; 15/33 पीजे प्रति हिट/मिस
  • प्रीफेचर्स सेवा. 16-एंट्री स्ट्रीम प्रीफ़ैचर के बाद मॉडलिंग की गई और उसके विरुद्ध मान्य किया गया
    Nehalem
  • L2 कैश. 128 केबी निजी प्रति-कोर, 8-वे सेट-एसोसिएटिव, समावेशी, 6-चक्र विलंबता; 46/93 पीजे प्रति हिट/मिस
  • सुसंगत विधा. जेंगा के लिए 16-रास्ता, 6-चक्र विलंबता निर्देशिका बैंक; दूसरों के लिए इन-कैश L3 निर्देशिकाएँ
  • वैश्विक NoC. 6×6 जाल, 128-बिट फ्लिट और लिंक, एक्स-वाई रूटिंग, 2-चक्र पाइपलाइन राउटर, 1-चक्र लिंक; 63/71 पीजे प्रति राउटर/लिंक फ्लिट ट्रैवर्सल, 12/4एमडब्ल्यू राउटर/लिंक स्टेटिक पावर
  • स्टेटिक मेमोरी SRAM को ब्लॉक कर देती है. 18 एमबी, प्रति टाइल एक 512 केबी बैंक, 4-वे 52-उम्मीदवार zcache, 9-चक्र बैंक विलंबता, सुविधाजनक विभाजन; 240/500 पीजे प्रति हिट/मिस, 28 मेगावाट/बैंक स्थैतिक शक्ति
  • मल्टीलेयर स्टैक्ड DRAM. 1152एमबी, प्रति 4 टाइल्स पर एक 128एमबी वॉल्ट, एमएपी-आई डीडीआर3-3200 (1600 मेगाहर्ट्ज) के साथ मिश्र धातु, 128-बिट बस, 16 रैंक, 8 बैंक/रैंक, 2 केबी पंक्ति बफर; 4.4/6.2 एनजे प्रति हिट/मिस, 88 मेगावाट/वॉल्ट स्थिर शक्ति
  • मुख्य स्मृति. 4 डीडीआर3-1600 चैनल, 64-बिट बस, 2 रैंक/चैनल, 8 बैंक/रैंक, 8 केबी पंक्ति बफर; 20 एनजे/एक्सेस, 4W स्थिर शक्ति
  • DRAM का समय. tCAS=8, tRCD=8, tRTP=4, tRAS=24, tRP=8, tRRD=4, tWTR=4, tWR=8, tFAW=18 (tCK में सभी समय; स्टैक्ड DRAM में मुख्य मेमोरी के रूप में आधा tCK है )

कैश मेमोरी या जैसा कि इसे हार्ड ड्राइव की बफर मेमोरी कहा जाता है। यदि आप नहीं जानते कि यह क्या है, तो हमें इस प्रश्न का उत्तर देने और आपको सभी उपलब्ध सुविधाओं के बारे में बताने में खुशी होगी। यह एक विशेष प्रकार की रैम है जो पहले पढ़े गए लेकिन अभी तक प्रसारित नहीं किए गए डेटा को आगे की प्रक्रिया के लिए संग्रहीत करने के साथ-साथ सिस्टम द्वारा सबसे अधिक बार एक्सेस की जाने वाली जानकारी को संग्रहीत करने के लिए एक बफर के रूप में कार्य करता है।

पीसी सिस्टम के थ्रूपुट और ड्राइव से डेटा पढ़ने की गति के बीच महत्वपूर्ण अंतर के कारण ट्रांजिट स्टोरेज की आवश्यकता उत्पन्न हुई। कैश मेमोरी अन्य उपकरणों, अर्थात् वीडियो कार्ड, प्रोसेसर, नेटवर्क कार्ड और अन्य में भी पाई जा सकती है।

वॉल्यूम क्या है और इसका क्या प्रभाव पड़ता है?

बफ़र वॉल्यूम विशेष ध्यान देने योग्य है। अक्सर HDD 8, 16, 32 और 64 एमबी के कैश से लैस होते हैं। बड़ी फ़ाइलों की प्रतिलिपि बनाते समय, 8 और 16 एमबी के बीच प्रदर्शन में महत्वपूर्ण अंतर होगा, लेकिन 16 और 32 के बीच यह कम ध्यान देने योग्य है। यदि आप 32 और 64 के बीच चयन करते हैं, तो लगभग कोई भी नहीं होगा। यह समझना आवश्यक है कि बफर अक्सर भारी भार का अनुभव करता है, और इस मामले में, यह जितना बड़ा होगा, उतना बेहतर होगा।

32 या 64 एमबी का उपयोग करने वाली आधुनिक हार्ड ड्राइव आज शायद ही कहीं पाई जा सकती हैं। एक सामान्य उपयोगकर्ता के लिए, पहला और दूसरा दोनों मान पर्याप्त होंगे। इसके अलावा, सिस्टम में निर्मित कैश के आकार से भी प्रदर्शन प्रभावित होता है। यह वह है जो हार्ड ड्राइव के प्रदर्शन को बढ़ाता है, खासकर पर्याप्त रैम के साथ।

अर्थात्, सिद्धांत रूप में, वॉल्यूम जितना बड़ा होगा, प्रदर्शन उतना ही बेहतर होगा और अधिक जानकारी बफर में हो सकती है और हार्ड ड्राइव लोड नहीं हो सकती है, लेकिन व्यवहार में सब कुछ थोड़ा अलग है, और औसत उपयोगकर्ता, दुर्लभ मामलों को छोड़कर, ज्यादा फर्क नजर नहीं आएगा. बेशक, सबसे बड़े आकार वाले उपकरणों को चुनने और खरीदने की सिफारिश की जाती है, जो आपके पीसी के प्रदर्शन में काफी सुधार करेगा। हालाँकि, यह तभी किया जाना चाहिए जब वित्तीय क्षमताएँ अनुमति दें।

उद्देश्य

इसे डेटा को पढ़ने और लिखने के लिए डिज़ाइन किया गया है, हालांकि, एससीएसआई ड्राइव पर, दुर्लभ मामलों में, कैशिंग लिखने की अनुमति की आवश्यकता होती है, क्योंकि डिफ़ॉल्ट सेटिंग यह है कि कैशिंग लिखना अक्षम है। जैसा कि हम पहले ही कह चुके हैं, परिचालन दक्षता में सुधार के लिए वॉल्यूम निर्णायक कारक नहीं है। हार्ड ड्राइव के प्रदर्शन को बढ़ाने के लिए बफ़र के साथ सूचना विनिमय को व्यवस्थित करना अधिक महत्वपूर्ण है। इसके अलावा, यह नियंत्रण इलेक्ट्रॉनिक्स के कामकाज, घटना की रोकथाम आदि से भी पूरी तरह प्रभावित होता है।

बफ़र मेमोरी सबसे अधिक उपयोग किए जाने वाले डेटा को संग्रहीत करती है, जबकि वॉल्यूम इस संग्रहीत जानकारी की क्षमता निर्धारित करती है। इसके बड़े आकार के कारण, हार्ड ड्राइव का प्रदर्शन काफी बढ़ जाता है, क्योंकि डेटा सीधे कैश से लोड किया जाता है और इसके लिए भौतिक रीडिंग की आवश्यकता नहीं होती है।

फिजिकल रीडिंग सिस्टम की हार्ड ड्राइव और उसके सेक्टरों तक सीधी पहुंच है। इस प्रक्रिया को मिलीसेकंड में मापा जाता है और इसमें काफी समय लगता है। साथ ही, एचडीडी भौतिक रूप से हार्ड ड्राइव तक पहुंचने के अनुरोध की तुलना में 100 गुना अधिक तेजी से डेटा स्थानांतरित करता है। यानी, यह होस्ट बस के व्यस्त होने पर भी डिवाइस को संचालित करने की अनुमति देता है।

मुख्य लाभ

बफ़र मेमोरी के कई फायदे हैं, जिनमें से मुख्य तेज़ डेटा प्रोसेसिंग है, जिसमें न्यूनतम समय लगता है, जबकि ड्राइव सेक्टरों तक भौतिक पहुंच के लिए एक निश्चित समय की आवश्यकता होती है जब तक कि डिस्क हेड डेटा का आवश्यक अनुभाग नहीं ढूंढ लेता और शुरू नहीं हो जाता। इसे पढ़ने के लिए. इसके अलावा, सबसे बड़ी स्टोरेज वाली हार्ड ड्राइव कंप्यूटर प्रोसेसर को काफी राहत दे सकती है। तदनुसार, प्रोसेसर का उपयोग न्यूनतम किया जाता है।

इसे पूर्ण विकसित त्वरक भी कहा जा सकता है, क्योंकि बफ़रिंग फ़ंक्शन हार्ड ड्राइव को अधिक कुशलतापूर्वक और तेज़ी से काम करता है। लेकिन आज, प्रौद्योगिकी के तेजी से विकास के साथ, यह अपना पूर्व महत्व खोता जा रहा है। यह इस तथ्य के कारण है कि अधिकांश आधुनिक मॉडलों में 32 और 64 एमबी है, जो ड्राइव के सामान्य कामकाज के लिए पर्याप्त है। जैसा कि ऊपर बताया गया है, आप अंतर का अधिक भुगतान तभी कर सकते हैं जब लागत का अंतर दक्षता के अंतर से मेल खाता हो।

अंत में, मैं यह कहना चाहूंगा कि बफर मेमोरी, चाहे वह कुछ भी हो, किसी विशेष प्रोग्राम या डिवाइस के प्रदर्शन में तभी सुधार करती है जब एक ही डेटा को बार-बार एक्सेस किया जाता है, जिसका आकार कैश आकार से बड़ा नहीं होता है। यदि आपके कंप्यूटर के काम में ऐसे प्रोग्राम शामिल हैं जो छोटी फ़ाइलों के साथ सक्रिय रूप से इंटरैक्ट करते हैं, तो आपको सबसे बड़े स्टोरेज वाले HDD की आवश्यकता है।

वर्तमान कैश आकार का पता कैसे लगाएं

आपको बस मुफ्त प्रोग्राम डाउनलोड और इंस्टॉल करना है एचडीट्यून. लॉन्च के बाद, "सूचना" अनुभाग पर जाएं और विंडो के नीचे आपको सभी आवश्यक पैरामीटर दिखाई देंगे।


यदि आप कोई नया उपकरण खरीद रहे हैं, तो सभी आवश्यक विशेषताएँ बॉक्स पर या संलग्न निर्देशों में पाई जा सकती हैं। दूसरा विकल्प इंटरनेट पर देखना है.

कैश प्रोसेसर में निर्मित एक मेमोरी है जिसमें रैम का सबसे अधिक उपयोग किया जाने वाला डेटा (कमांड) लिखा जाता है, जो काम को काफी गति देता है।

L1 कैश आकार (8 से 128 KB तक)
स्तर 1 कैश आकार.
लेवल 1 कैश हाई-स्पीड मेमोरी का एक ब्लॉक है जो सीधे प्रोसेसर कोर पर स्थित होता है।
RAM से निकाला गया डेटा इसमें कॉपी किया जाता है।

कोर निर्देशों को संग्रहीत करने से तेज़ डेटा प्रोसेसिंग गति (रैम की तुलना में कैश से प्रोसेसिंग तेज़ होती है) के कारण प्रोसेसर के प्रदर्शन में सुधार होता है।

पहले स्तर के कैश की क्षमता छोटी है और किलोबाइट के बराबर है।
आमतौर पर, "पुराने" प्रोसेसर मॉडल में बड़ा L1 कैश होता है।
मल्टी-कोर मॉडल के लिए, एक कोर के लिए L1 कैश मेमोरी की मात्रा इंगित की गई है।

L2 कैश आकार (128 से 12288 KB तक)
लेवल 2 कैश आकार.
L2 कैश हाई-स्पीड मेमोरी का एक ब्लॉक है जो L1 कैश के समान कार्य करता है ("L1 कैश क्षमता" देखें), लेकिन इसकी गति कम और क्षमता बड़ी है।

यदि आप संसाधन-गहन कार्यों के लिए प्रोसेसर चुन रहे हैं, तो बड़े L2 कैश वाला मॉडल बेहतर होगा।
मल्टी-कोर प्रोसेसर के लिए, दूसरे स्तर की कैश मेमोरी की कुल मात्रा इंगित की गई है।

L3 कैश आकार (0 से 16384 KB तक)
लेवल 3 कैश आकार.
एकीकृत L3 कैश, एक तेज़ सिस्टम बस के साथ मिलकर, सिस्टम मेमोरी के साथ एक हाई-स्पीड डेटा एक्सचेंज चैनल बनाता है।

एक नियम के रूप में, केवल सर्वर समाधान के लिए सीपीयू या "डेस्कटॉप" प्रोसेसर के विशेष संस्करण तीसरे स्तर की कैश मेमोरी से लैस होते हैं।

उदाहरण के लिए, इंटेल पेंटियम 4 एक्सट्रीम एडिशन, ज़ीऑन डीपी, इटेनियम 2, ज़ीऑन एमपी और अन्य जैसी प्रोसेसर लाइनों में तीसरे स्तर की कैश मेमोरी होती है।

ट्विन BiCS फ़्लैश - नई 3D फ़्लैश मेमोरी तकनीक

11 दिसंबर, 2019 को IEEE इंटरनेशनल इलेक्ट्रॉनिक डिवाइसेस मीटिंग (IEDM) में, TOKYO-Kioxia Corporation ने 3D फ़्लैश मेमोरी तकनीक - ट्विन BiCS FLASH की घोषणा की।

AMD Radeon सॉफ़्टवेयर एड्रेनालिन संस्करण 2020 ड्राइवर 19.12.2 WHQL (जोड़ा गया)

10 दिसंबर को, AMD ने मेगा ड्राइवर Radeon Software Adrenalin 2020 Edition 19.12.2 WHQL पेश किया।

विंडोज़ 10 संचयी अद्यतन 1909 KB4530684

10 दिसंबर, 2019 को, Microsoft ने x64-आधारित सिस्टम के लिए x86, x64 (amd64), ARM64, और Windows Server 2019 (1909) प्रोसेसर पर विंडोज 10 नवंबर 2019 अपडेट (संस्करण 1909) के लिए संचयी अद्यतन KB4530684 (बिल्ड 18363.535) जारी किया।

NVIDIA गेम रेडी GeForce 441.66 WHQL ड्राइवर

NVIDIA GeForce गेम रेडी 441.66 WHQL ड्राइवर में MechWarrior 5: Mercenaries और Detroit: Become Human के लिए समर्थन शामिल है, और MSI MAG251RX और ViewSonic XG270 मॉनिटर के लिए G-SYNC समर्थन भी जोड़ता है।

AMD प्रोसेसर के लिए L3 कैश कितना महत्वपूर्ण है?

वास्तव में, मल्टी-कोर प्रोसेसर को समर्पित मेमोरी से लैस करना समझ में आता है जिसे सभी उपलब्ध कोर द्वारा साझा किया जाएगा। इस भूमिका में, एक तेज़ तृतीय-स्तरीय (L3) कैश अक्सर अनुरोधित डेटा तक पहुंच को काफी तेज़ कर सकता है। फिर, यदि संभव हो तो कोर को धीमी मुख्य मेमोरी (रैम) तक पहुंचने की आवश्यकता नहीं होगी।

कम से कम सिद्धांत में. हाल ही में ए.एम.डी एथलॉन II X4 प्रोसेसर की घोषणा की, जो L3 कैश के बिना एक Phenom II X4 मॉडल है, यह संकेत देता है कि यह उतना आवश्यक नहीं है। कैश प्रदर्शन को कैसे प्रभावित करता है, इसका परीक्षण करने के लिए हमने सीधे दो प्रोसेसर (एल 3 कैश के साथ और बिना) की तुलना करने का निर्णय लिया।

विस्तार करने के लिए तस्वीर पर क्लिक करें।

कैश कैसे काम करता है?

इससे पहले कि हम परीक्षणों में उतरें, कुछ बुनियादी बातों को समझना महत्वपूर्ण है। कैश कैसे काम करता है इसका सिद्धांत काफी सरल है। कैश बफर डेटा को प्रोसेसर के प्रोसेसिंग कोर के जितना संभव हो उतना करीब रखता है ताकि सीपीयू अनुरोधों को अधिक दूर और धीमी मेमोरी में कम किया जा सके। आधुनिक डेस्कटॉप प्लेटफ़ॉर्म पर, कैश पदानुक्रम में तीन स्तर शामिल होते हैं जो रैम तक पहुंच से पहले होते हैं। इसके अलावा, दूसरे और विशेष रूप से तीसरे स्तर के कैश न केवल डेटा को बफर करने का काम करते हैं। उनका उद्देश्य प्रोसेसर बस को अतिभारित होने से रोकना है जब कोर को सूचनाओं के आदान-प्रदान की आवश्यकता होती है।

हिट और मिस

कैश आर्किटेक्चर की प्रभावशीलता को हिट दर द्वारा मापा जाता है। डेटा अनुरोध जो कैश द्वारा संतुष्ट किए जा सकते हैं उन्हें हिट माना जाता है। यदि इस कैश में आवश्यक डेटा नहीं है, तो अनुरोध को मेमोरी पाइपलाइन के साथ आगे बढ़ाया जाता है, और एक चूक की गणना की जाती है। निस्संदेह, चूक के कारण जानकारी प्राप्त करने में अधिक समय लगता है। परिणामस्वरूप, कंप्यूटिंग पाइपलाइन में "बुलबुले" (निष्क्रिय) और देरी दिखाई देती है। इसके विपरीत, हिट आपको अधिकतम प्रदर्शन बनाए रखने की अनुमति देते हैं।

कैश प्रविष्टि, विशिष्टता, सुसंगतता

प्रतिस्थापन नीतियां यह तय करती हैं कि नई प्रविष्टियों के लिए कैश को कैसे मुक्त किया जाए। क्योंकि कैश में लिखा गया डेटा अंततः मुख्य मेमोरी में दिखना चाहिए, सिस्टम कैश में लिखते समय (राइट-थ्रू) ऐसा कर सकता है, या डेटा क्षेत्रों को "गंदा" (राइट-बैक) के रूप में चिह्नित कर सकता है और लिख सकता है मेमोरी जब इसे कैश से निकाला जाता है।

कई कैश स्तरों में डेटा को विशेष रूप से, यानी अतिरेक के बिना संग्रहीत किया जा सकता है। तब आपको दो अलग-अलग कैश पदानुक्रमों में समान डेटा पंक्तियाँ नहीं मिलेंगी। या कैश समावेशी रूप से काम कर सकते हैं, यानी, निचले कैश स्तरों में ऊपरी कैश स्तरों (प्रोसेसर कोर के करीब) में मौजूद डेटा शामिल होने की गारंटी है। एएमडी फेनोम एक विशेष एल3 कैश का उपयोग करता है, जबकि इंटेल एक समावेशी कैश रणनीति का पालन करता है। सुसंगतता प्रोटोकॉल विभिन्न कोर, कैश स्तर और यहां तक ​​कि प्रोसेसर में डेटा की अखंडता और ताजगी सुनिश्चित करते हैं।

कैचे आकार

एक बड़े कैश में अधिक डेटा हो सकता है, लेकिन विलंबता बढ़ जाती है। इसके अलावा, एक बड़ा कैश काफी संख्या में प्रोसेसर ट्रांजिस्टर की खपत करता है, इसलिए ट्रांजिस्टर बजट, डाई आकार, बिजली की खपत और प्रदर्शन/विलंबता के बीच संतुलन बनाना महत्वपूर्ण है।

संबद्धता

रैम में प्रविष्टियों को सीधे कैश में मैप किया जा सकता है, यानी, रैम से डेटा की प्रतिलिपि के लिए केवल एक कैश स्थिति है, या वे एन-वे सहयोगी हो सकते हैं, यानी, कैश में एन संभावित स्थान हैं जहां यह डेटा संग्रहीत किया जा सकता है. एसोसिएटिविटी की उच्च डिग्री (पूरी तरह से एसोसिएटिव कैश तक) अधिक कैशिंग लचीलापन प्रदान करती है क्योंकि कैश में मौजूदा डेटा को फिर से लिखने की आवश्यकता नहीं होती है। दूसरे शब्दों में, साहचर्य की उच्च एन-डिग्री उच्च हिट दर की गारंटी देती है, लेकिन यह विलंबता भी बढ़ाती है क्योंकि हिट के लिए उन सभी संघों की जांच करने में अधिक समय लगता है। आमतौर पर, एसोसिएशन की उच्चतम डिग्री कैशिंग के अंतिम स्तर के लिए उचित है, क्योंकि अधिकतम क्षमता वहां उपलब्ध है, और इस कैश के बाहर डेटा की खोज के परिणामस्वरूप प्रोसेसर धीमी रैम तक पहुंच पाएगा।

यहां कुछ उदाहरण दिए गए हैं: कोर i5 और i7 डेटा के लिए 8-वे एसोसिएटिविटी के साथ 32 KB L1 कैश का उपयोग करते हैं और निर्देशों के लिए 4-वे एसोसिएटिविटी के साथ 32 KB L1 कैश का उपयोग करते हैं। यह समझ में आता है कि इंटेल चाहता है कि निर्देश तेजी से उपलब्ध हों और एल1 डेटा कैश में अधिकतम हिट दर हो। Intel प्रोसेसर पर L2 कैश में 8-तरफा एसोसिएटिविटी है, और Intel L3 कैश और भी स्मार्ट है, क्योंकि यह हिट्स को अधिकतम करने के लिए 16-वे एसोसिएटिविटी को लागू करता है।

हालाँकि, AMD Phenom II X4 प्रोसेसर के साथ एक अलग रणनीति का पालन कर रहा है, जो विलंबता को कम करने के लिए 2-तरफ़ा सहयोगी L1 कैश का उपयोग करता है। संभावित चूक की भरपाई के लिए, कैश क्षमता दोगुनी कर दी गई: डेटा के लिए 64 KB और निर्देशों के लिए 64 KB। L2 कैश में इंटेल डिज़ाइन की तरह 8-तरफा एसोसिएटिविटी है, लेकिन AMD का L3 कैश 48-वे एसोसिएटिविटी के साथ काम करता है। लेकिन पूरे सीपीयू आर्किटेक्चर पर विचार किए बिना एक कैश आर्किटेक्चर को दूसरे पर चुनने के निर्णय का मूल्यांकन नहीं किया जा सकता है। यह बिल्कुल स्वाभाविक है कि परीक्षण के परिणामों का व्यावहारिक महत्व है, और हमारा लक्ष्य वास्तव में इस संपूर्ण जटिल बहु-स्तरीय कैशिंग संरचना का व्यावहारिक परीक्षण था।

प्रत्येक आधुनिक प्रोसेसर में एक समर्पित कैश होता है जो प्रोसेसर निर्देशों और डेटा को संग्रहीत करता है, जो लगभग तुरंत उपयोग के लिए तैयार होता है। इस स्तर को आमतौर पर लेवल 1 या L1 कैश के रूप में जाना जाता है और इसे सबसे पहले 486DX प्रोसेसर में पेश किया गया था। हाल ही में, एएमडी प्रोसेसर 64 केबी एल1 कैश प्रति कोर (डेटा और निर्देशों के लिए) के साथ मानक बन गए हैं, और इंटेल प्रोसेसर 32 केबी एल1 कैश प्रति कोर (डेटा और निर्देशों के लिए भी) का उपयोग करते हैं।

L1 कैश पहली बार 486DX प्रोसेसर पर दिखाई दिया, जिसके बाद यह सभी आधुनिक सीपीयू की एक अभिन्न विशेषता बन गया।

पेंटियम III के रिलीज़ होने के बाद सभी प्रोसेसर पर द्वितीय-स्तरीय कैश (L2) दिखाई दिया, हालाँकि पैकेजिंग पर इसका पहला कार्यान्वयन पेंटियम प्रो प्रोसेसर में था (लेकिन ऑन-चिप नहीं)। आधुनिक प्रोसेसर 6 एमबी तक के ऑन-चिप L2 कैश से लैस हैं। उदाहरण के लिए, एक नियम के रूप में, यह वॉल्यूम इंटेल कोर 2 डुओ प्रोसेसर पर दो कोर के बीच विभाजित होता है। विशिष्ट L2 कॉन्फ़िगरेशन प्रति कोर 512 KB या 1 MB कैश प्रदान करता है। छोटे L2 कैश वाले प्रोसेसर कम कीमत के स्तर पर होते हैं। नीचे प्रारंभिक L2 कैश कार्यान्वयन का एक आरेख है।

पेंटियम प्रो में प्रोसेसर पैकेजिंग में L2 कैश था। पेंटियम III और एथलॉन की बाद की पीढ़ियों में, L2 कैश को अलग SRAM चिप्स के माध्यम से लागू किया गया था, जो उस समय (1998, 1999) बहुत आम था।

180 एनएम तक प्रक्रिया प्रौद्योगिकी की बाद की घोषणा ने निर्माताओं को अंततः प्रोसेसर डाई पर एल2 कैश को एकीकृत करने की अनुमति दी।


पहले डुअल-कोर प्रोसेसर में केवल मौजूदा डिज़ाइन का उपयोग किया जाता था जिसमें प्रति पैकेज दो डाई शामिल होते थे। एएमडी ने एक मोनोलिथिक चिप पर एक डुअल-कोर प्रोसेसर पेश किया, एक मेमोरी कंट्रोलर और एक स्विच जोड़ा, और इंटेल ने अपने पहले डुअल-कोर प्रोसेसर के लिए एक पैकेज में दो सिंगल-कोर चिप्स को इकट्ठा किया।


पहली बार, कोर 2 डुओ प्रोसेसर पर दो कंप्यूटिंग कोर के बीच L2 कैश साझा किया जाने लगा। एएमडी ने आगे बढ़कर स्क्रैच से अपना पहला क्वाड-कोर फेनोम बनाया, और इंटेल ने लागत कम करने के लिए अपने पहले क्वाड-कोर प्रोसेसर के लिए फिर से डाई की एक जोड़ी का उपयोग किया, इस बार दो डुअल-कोर कोर 2 डाई।

तीसरे स्तर का कैश अल्फा 21165 प्रोसेसर (96 केबी, 1995 में पेश किए गए प्रोसेसर) या आईबीएम पावर 4 (256 केबी, 2001) के शुरुआती दिनों से ही अस्तित्व में है। हालाँकि, x86-आधारित आर्किटेक्चर में, L3 कैश पहली बार इंटेल इटेनियम 2, पेंटियम 4 एक्सट्रीम (गैलाटिन, दोनों प्रोसेसर 2003 में) और ज़ीऑन एमपी (2006) मॉडल के साथ दिखाई दिया।

प्रारंभिक कार्यान्वयन ने कैश पदानुक्रम में एक और स्तर प्रदान किया, हालांकि आधुनिक आर्किटेक्चर मल्टी-कोर प्रोसेसर में इंटर-कोर डेटा ट्रांसफर के लिए एक बड़े, साझा बफर के रूप में एल 3 कैश का उपयोग करते हैं। यह साहचर्य की उच्च एन-डिग्री द्वारा बल दिया गया है। ऐसी स्थिति में पहुंचने से बेहतर है कि कैश में डेटा को थोड़ी देर और खोजा जाए, जहां कई कोर मुख्य रैम तक बहुत धीमी पहुंच का उपयोग कर रहे हैं। एएमडी ने पहली बार पहले से उल्लेखित फेनोम लाइन के साथ डेस्कटॉप प्रोसेसर पर एल3 कैश पेश किया। 65 एनएम फेनोम एक्स4 में 2 एमबी साझा एल3 कैश है, और आधुनिक 45 एनएम फेनोम II एक्स4 में पहले से ही 6 एमबी साझा एल3 कैश है। Intel Core i7 और i5 प्रोसेसर 8 MB L3 कैश का उपयोग करते हैं।

आधुनिक क्वाड-कोर प्रोसेसर में प्रत्येक कोर के लिए समर्पित L1 और L2 कैश होते हैं, साथ ही सभी कोर द्वारा साझा किया जाने वाला एक बड़ा L3 कैश भी होता है। साझा L3 कैश डेटा के आदान-प्रदान की भी अनुमति देता है जिस पर कोर समानांतर में काम कर सकते हैं।


प्रोसेसर के प्रदर्शन को बढ़ाने वाले महत्वपूर्ण कारकों में से एक कैश मेमोरी की उपस्थिति, या बल्कि इसकी मात्रा, पहुंच गति और स्तरों के बीच वितरण है।

पिछले कुछ समय से, लगभग सभी प्रोसेसर इस प्रकार की मेमोरी से लैस हैं, जो एक बार फिर इसकी उपस्थिति की उपयोगिता साबित करता है। इस लेख में, हम प्रोसेसर की एक बहुत ही महत्वपूर्ण विशेषता के रूप में कैश मेमोरी की संरचना, स्तर और व्यावहारिक उद्देश्य के बारे में बात करेंगे।

कैश मेमोरी क्या है और इसकी संरचना

कैश मेमोरी अल्ट्रा-फास्ट मेमोरी है जिसका उपयोग प्रोसेसर द्वारा सबसे अधिक बार एक्सेस किए जाने वाले डेटा को अस्थायी रूप से संग्रहीत करने के लिए किया जाता है। इस प्रकार हम इस प्रकार की मेमोरी का संक्षेप में वर्णन कर सकते हैं।

कैश मेमोरी फ्लिप-फ्लॉप पर बनाई जाती है, जो बदले में ट्रांजिस्टर से बनी होती है। ट्रांजिस्टर का एक समूह रैम बनाने वाले समान कैपेसिटर की तुलना में बहुत अधिक जगह लेता है। इसमें उत्पादन में कई कठिनाइयों के साथ-साथ मात्रा की सीमाएँ भी शामिल हैं। इसीलिए कैश मेमोरी बहुत महंगी मेमोरी होती है, जबकि इसका वॉल्यूम नगण्य होता है। लेकिन इस संरचना से ऐसी मेमोरी का मुख्य लाभ आता है - गति। चूंकि फ्लिप-फ्लॉप को पुनर्जनन की आवश्यकता नहीं होती है, और जिस गेट पर वे इकट्ठे होते हैं उसका विलंब समय छोटा होता है, फ्लिप-फ्लॉप को एक राज्य से दूसरे राज्य में स्विच करने का समय बहुत जल्दी होता है। यह कैश मेमोरी को आधुनिक प्रोसेसर के समान आवृत्तियों पर संचालित करने की अनुमति देता है।

इसके अलावा, एक महत्वपूर्ण कारक कैश मेमोरी का स्थान है। यह प्रोसेसर चिप पर ही स्थित होता है, जो एक्सेस समय को काफी कम कर देता है। पहले, कुछ स्तरों की कैश मेमोरी प्रोसेसर चिप के बाहर, मदरबोर्ड पर कहीं एक विशेष SRAM चिप पर स्थित होती थी। अब, लगभग सभी प्रोसेसर में कैश मेमोरी प्रोसेसर चिप पर स्थित होती है।

प्रोसेसर कैश का उपयोग किसके लिए किया जाता है?

जैसा कि ऊपर उल्लेख किया गया है, कैश मेमोरी का मुख्य उद्देश्य उस डेटा को संग्रहीत करना है जो प्रोसेसर द्वारा अक्सर उपयोग किया जाता है। कैश एक बफर है जिसमें डेटा लोड किया जाता है, और आधुनिक प्रोसेसर में इसके छोटे आकार (लगभग 4-16 एमबी) के बावजूद, यह किसी भी एप्लिकेशन में महत्वपूर्ण प्रदर्शन को बढ़ावा देता है।

कैश मेमोरी की आवश्यकता को बेहतर ढंग से समझने के लिए, आइए एक कंप्यूटर की मेमोरी को एक कार्यालय की तरह व्यवस्थित करने की कल्पना करें। रैम फ़ोल्डर्स के साथ एक कैबिनेट होगी जिसे अकाउंटेंट समय-समय पर डेटा के बड़े ब्लॉक (यानी फ़ोल्डर्स) को पुनः प्राप्त करने के लिए एक्सेस करता है। और तालिका एक कैश मेमोरी होगी.

ऐसे तत्व हैं जो अकाउंटेंट के डेस्क पर रखे गए हैं, जिन्हें वह एक घंटे के भीतर कई बार संदर्भित करता है। उदाहरण के लिए, ये फ़ोन नंबर, दस्तावेज़ों के कुछ उदाहरण हो सकते हैं। इस प्रकार की जानकारी सीधे टेबल पर स्थित होती है, जो बदले में, उन तक पहुंच की गति को बढ़ा देती है।

उसी तरह, त्वरित उपयोग के लिए उन बड़े डेटा ब्लॉक (फ़ोल्डरों) से डेटा को तालिका में जोड़ा जा सकता है, उदाहरण के लिए, एक दस्तावेज़। जब इस दस्तावेज़ की आवश्यकता नहीं रह जाती है, तो इसे वापस कैबिनेट में (रैम में) रख दिया जाता है, जिससे तालिका (कैश मेमोरी) साफ़ हो जाती है और इस तालिका को नए दस्तावेज़ों के लिए मुक्त कर दिया जाता है जिनका उपयोग अगले समय में किया जाएगा।

इसके अलावा कैश मेमोरी के साथ, यदि कोई ऐसा डेटा है जिसे दोबारा एक्सेस करने की सबसे अधिक संभावना है, तो रैम से यह डेटा कैश मेमोरी में लोड किया जाता है। बहुत बार, ऐसा उस डेटा को सह-लोड करने से होता है जिसका वर्तमान डेटा के बाद उपयोग किए जाने की सबसे अधिक संभावना होती है। अर्थात्, "बाद में" क्या उपयोग किया जाएगा इसके बारे में धारणाएँ हैं। ये जटिल संचालन सिद्धांत हैं.

प्रोसेसर कैश स्तर

आधुनिक प्रोसेसर कैश से लैस होते हैं, जिसमें अक्सर 2 या 3 स्तर होते हैं। बेशक, अपवाद हैं, लेकिन अक्सर ऐसा ही होता है।

सामान्य तौर पर, निम्नलिखित स्तर हो सकते हैं: L1 (प्रथम स्तर), L2 (द्वितीय स्तर), L3 (तीसरा स्तर)। अब उनमें से प्रत्येक पर थोड़ा और विवरण:

प्रथम स्तर का कैश (L1) सबसे तेज़ कैश मेमोरी स्तर है जो सीधे प्रोसेसर कोर के साथ काम करता है, इस कड़े इंटरेक्शन के लिए धन्यवाद, इस स्तर का एक्सेस समय सबसे कम है और यह प्रोसेसर के करीब आवृत्तियों पर काम करता है। यह प्रोसेसर और दूसरे स्तर के कैश के बीच एक बफर है।

हम उच्च-प्रदर्शन प्रोसेसर Intel Core i7-3770K पर वॉल्यूम पर विचार करेंगे। यह प्रोसेसर 4x32 KB L1 कैश 4 x 32 KB = 128 KB से लैस है। (32 केबी प्रति कोर)

दूसरा स्तर कैश (L2) - दूसरा स्तर पहले की तुलना में बड़ा है, लेकिन परिणामस्वरूप, इसकी "गति विशेषताएँ" कम हैं। तदनुसार, यह L1 और L3 स्तरों के बीच एक बफर के रूप में कार्य करता है। यदि हम अपने उदाहरण Core i7-3770 K को फिर से देखें, तो L2 कैश मेमोरी का आकार 4x256 KB = 1 MB है।

तीसरा स्तर कैश (L3) - तीसरा स्तर, फिर से, पिछले दो की तुलना में धीमा है। लेकिन यह अभी भी RAM से बहुत तेज़ है। i7-3770K में L3 कैश का आकार 8 एमबी है। यदि पिछले दो स्तर प्रत्येक कोर द्वारा साझा किए जाते हैं, तो यह स्तर पूरे प्रोसेसर के लिए सामान्य है। यह आंकड़ा काफी ठोस है, लेकिन बहुत ज्यादा नहीं। चूँकि, उदाहरण के लिए, i7-3960X जैसे एक्सट्रीम-सीरीज़ प्रोसेसर के लिए, यह 15 एमबी है, और कुछ नए Xeon प्रोसेसर के लिए, 20 से अधिक है।

we-it.net

कैश का उपयोग किस लिए किया जाता है और इसकी कितनी आवश्यकता है?

हम नकदी के बारे में बात नहीं कर रहे हैं, बल्कि प्रोसेसर कैश मेमोरी और बहुत कुछ के बारे में बात कर रहे हैं। व्यापारियों ने कैश मेमोरी क्षमता से एक और व्यावसायिक आकर्षण बना लिया है, विशेष रूप से केंद्रीय प्रोसेसर और हार्ड ड्राइव के कैश के साथ (वीडियो कार्ड में भी यह है, लेकिन वे अभी तक इस तक नहीं पहुंचे हैं)। तो, 1MB L2 कैश के साथ एक XXX प्रोसेसर है, और 2MB कैश के साथ बिल्कुल वही XYZ प्रोसेसर है। सोचो कौन सा बेहतर है? आह - इसे तुरंत मत करो!

कैश मेमोरी एक बफ़र है जो वह संग्रहीत करता है जिसे बाद के लिए स्थगित किया जा सकता है और/या आवश्यकता है। प्रोसेसर काम कर रहा है और ऐसी स्थितियाँ उत्पन्न होती हैं जब मध्यवर्ती डेटा को कहीं संग्रहीत करने की आवश्यकता होती है। खैर, बेशक कैश में! - आख़िरकार, यह RAM से भी तेज़ परिमाण का ऑर्डर है, क्योंकि... यह प्रोसेसर डाई में ही होता है और आमतौर पर एक ही आवृत्ति पर चलता है। और फिर, कुछ समय बाद, वह इस डेटा को वापस फिश करेगा और इसे फिर से प्रोसेस करेगा। मोटे तौर पर कहें तो, यह एक कन्वेयर बेल्ट पर आलू छांटने वाले की तरह है, जो हर बार जब आलू (गाजर) के अलावा कुछ और पाता है, तो उसे एक बॉक्स में फेंक देता है। और जब वह भर जाता है, तो वह उठकर उसे अगले कमरे में ले जाता है। इस समय, कन्वेयर स्थिर खड़ा है और डाउनटाइम देखा गया है। इस सादृश्य में बॉक्स का आयतन कैश है। और कितनी चाहिए - 1 एमबी या 12? यह स्पष्ट है कि यदि इसकी मात्रा छोटी है, तो आपको इसे हटाने में बहुत अधिक समय खर्च करना होगा और यह आसान होगा, लेकिन एक निश्चित मात्रा के बाद इसे और बढ़ाने से कुछ हासिल नहीं होगा। ठीक है, सॉर्टर के पास 1000 किलोग्राम गाजर का एक बॉक्स होगा - लेकिन उसकी पूरी शिफ्ट के दौरान उसके पास इतना नहीं होगा और इससे वह दो गुना तेज नहीं होगा! एक और सूक्ष्मता है - एक बड़ा कैश, सबसे पहले, उस तक पहुंचने में देरी में वृद्धि का कारण बन सकता है, और साथ ही इसमें त्रुटियों की संभावना भी बढ़ जाती है, उदाहरण के लिए ओवरक्लॉकिंग के दौरान - दूसरी बात। (आप इस मामले में प्रोसेसर की स्थिरता/अस्थिरता का निर्धारण कैसे करें के बारे में पढ़ सकते हैं और पता लगा सकते हैं कि त्रुटि इसके कैश में होती है और L1 और L2 का परीक्षण करें।) तीसरा, कैश अच्छी मात्रा में चिप क्षेत्र को खाता है और प्रोसेसर सर्किट का ट्रांजिस्टर बजट। यही बात हार्ड ड्राइव की कैश मेमोरी पर भी लागू होती है। और यदि प्रोसेसर आर्किटेक्चर मजबूत है, तो कई अनुप्रयोगों में इसकी मांग 1024 केबी या उससे अधिक होगी। यदि आपके पास तेज़ HDD है, तो 16MB या 32MB भी उपयुक्त है। लेकिन 64 एमबी कैश की कोई भी मात्रा इसे तेज़ नहीं बनाएगी यदि यह आवश्यक 7200 के बजाय 5900 की गति के साथ हरे संस्करण (ग्रीन डब्ल्यूडी) नामक एक ट्रिम है, भले ही बाद वाले में 8 एमबी हो। फिर इंटेल और एएमडी प्रोसेसर इस कैश का अलग-अलग उपयोग करते हैं (आम तौर पर कहें तो, एएमडी अधिक कुशल है और उनके प्रोसेसर अक्सर छोटे मूल्यों के साथ सहज होते हैं)। इसके अलावा, इंटेल के पास एक साझा कैश है, लेकिन एएमडी के पास प्रत्येक कोर के लिए अलग-अलग है। एएमडी प्रोसेसर पर सबसे तेज़ एल1 कैश डेटा और निर्देशों के लिए 64 केबी है, जो इंटेल से दोगुना है। तीसरे स्तर का L3 कैश आमतौर पर AMD Phenom II 1055T X6 सॉकेट AM3 2.8GHz या प्रतिस्पर्धी Intel Core i7-980X जैसे शीर्ष प्रोसेसर में मौजूद होता है। सबसे पहले, गेम को बड़े कैश वॉल्यूम पसंद हैं। और कई पेशेवर एप्लिकेशन कैश को पसंद नहीं करते हैं (देखें)। रेंडरिंग, वीडियो संपादन और व्यावसायिक अनुप्रयोगों के लिए कंप्यूटर)। अधिक सटीक रूप से, जो लोग सबसे अधिक मांग वाले होते हैं वे आम तौर पर उसके प्रति उदासीन होते हैं। लेकिन आपको निश्चित रूप से कैश आकार के आधार पर प्रोसेसर का चयन नहीं करना चाहिए। पुराने पेंटियम 4 में इसकी नवीनतम अभिव्यक्तियों में 3GHz से अधिक की ऑपरेटिंग आवृत्तियों पर 2MB कैश था - इसके प्रदर्शन की तुलना सस्ते डुअल-कोर सेलेरॉन E1*** से करें, जो लगभग 2GHz की आवृत्तियों पर काम करता है। वह बूढ़े से कोई कसर नहीं छोड़ेगा। एक अधिक प्रासंगिक उदाहरण उच्च-आवृत्ति डुअल-कोर E8600 है, जिसकी कीमत लगभग $200 है (जाहिरा तौर पर 6MB कैश के कारण) और Athlon II X4-620 2.6GHz, जिसकी कीमत केवल 2MB है। यह एथलोन को अपने प्रतिद्वंद्वी को टुकड़ों में काटने से नहीं रोकता है।

जैसा कि आप ग्राफ़ से देख सकते हैं, कोई भी कैश जटिल प्रोग्राम या प्रोसेसर-डिमांड वाले गेम में अतिरिक्त कोर को प्रतिस्थापित नहीं कर सकता है। 2एमबी कैश (लाल) के साथ एथलॉन 6एमबी कैश के साथ कोर2डुओ को आसानी से हरा देता है, यहां तक ​​कि कम आवृत्ति और लगभग आधी कीमत पर भी। साथ ही, बहुत से लोग यह भूल जाते हैं कि कैश वीडियो कार्ड में मौजूद होता है, क्योंकि आम तौर पर कहें तो उनमें प्रोसेसर भी होते हैं। एक हालिया उदाहरण GTX460 वीडियो कार्ड है, जहां वे न केवल बस और मेमोरी क्षमता (जिसके बारे में खरीदार अनुमान लगाएगा) में कटौती करने का प्रबंधन करते हैं - बल्कि शेडर कैश को भी क्रमशः 512Kb से 384Kb तक कम कर देते हैं (जिसके बारे में खरीदार को अनुमान नहीं होगा) ). और इससे उत्पादकता में इसका नकारात्मक योगदान भी जुड़ जाएगा. कैश आकार पर प्रदर्शन की निर्भरता का पता लगाना भी दिलचस्प होगा। आइए जांच करें कि उसी प्रोसेसर के उदाहरण का उपयोग करके कैश आकार बढ़ने के साथ यह कितनी तेज़ी से बढ़ता है। जैसा कि आप जानते हैं, E6***, E4*** और E2*** श्रृंखला के प्रोसेसर केवल कैश आकार (क्रमशः 4, 2 और 1 एमबी प्रत्येक) में भिन्न होते हैं। 2400 मेगाहर्ट्ज की समान आवृत्ति पर काम करते हुए, वे निम्नलिखित परिणाम दिखाते हैं।

जैसा कि आप देख सकते हैं, परिणाम बहुत भिन्न नहीं हैं। मैं और अधिक कहूंगा - यदि 6 एमबी की क्षमता वाला प्रोसेसर शामिल होता, तो परिणाम थोड़ा और बढ़ जाता, क्योंकि प्रोसेसर संतृप्ति तक पहुँचते हैं। लेकिन 512Kb वाले मॉडल के लिए गिरावट ध्यान देने योग्य होगी। दूसरे शब्दों में, गेम के लिए भी 2एमबी पर्याप्त है। संक्षेप में, हम निम्नलिखित निष्कर्ष निकाल सकते हैं - कैश तब अच्छा होता है जब बाकी सब कुछ पहले से ही मौजूद हो। एक ही कीमत पर कैश आकार के लिए हार्ड ड्राइव की गति या प्रोसेसर कोर की संख्या को बदलना अनुभवहीन और मूर्खतापूर्ण है, क्योंकि सबसे अधिक क्षमता वाला सॉर्टिंग बॉक्स भी दूसरे सॉर्टर को प्रतिस्थापित नहीं करेगा उदाहरण के लिए, 65 एनएम प्रक्रिया पर प्रारंभिक संशोधन में पेंटियम डुअल-कोर में दो कोर (ई2160 श्रृंखला और समान) के लिए 1 एमबी कैश था, और ई5200 श्रृंखला के बाद के 45-एनएम संशोधन में अभी भी 2 एमबी है, अन्य सभी चीजें समान हैं ( और सबसे महत्वपूर्ण - कीमत)। बेशक, आपको बाद वाला चुनना चाहिए।

compua.com.ua

कैश क्या है, इसकी आवश्यकता क्यों है और यह कैसे काम करता है?

कंप्यूटर पर सबसे गंदी जगह कौन सी है? क्या आपको लगता है कि यह एक टोकरी है? उपयोगकर्ता फ़ोल्डर? शीतलन प्रणाली? आपने ग़लत अनुमान लगाया! सबसे गंदी जगह कैश है! आख़िरकार, आपको इसे लगातार साफ़ करना होगा!

वास्तव में, कंप्यूटर पर बहुत सारे कैश होते हैं, और वे अपशिष्ट डंप के रूप में नहीं, बल्कि उपकरण और अनुप्रयोगों के लिए त्वरक के रूप में काम करते हैं। उन्हें "सिस्टम ट्रैश शूट" होने की प्रतिष्ठा कहाँ से मिली? आइए जानें कि कैश क्या है, यह क्या है, यह कैसे काम करता है और इसे समय-समय पर साफ करने की आवश्यकता क्यों है।

कैश या कैश मेमोरी अक्सर उपयोग किए जाने वाले डेटा का एक विशेष भंडारण है, जिसे रैम या अन्य स्टोरेज मीडिया की तुलना में दसियों, सैकड़ों और हजारों गुना तेजी से एक्सेस किया जाता है।

एप्लिकेशन (वेब ​​​​ब्राउज़र, ऑडियो और वीडियो प्लेयर, डेटाबेस संपादक, आदि), ऑपरेटिंग सिस्टम घटक (थंबनेल कैश, डीएनएस कैश) और हार्डवेयर (सीपीयू कैश एल1-एल3, ग्राफिक्स फ्रेमबफ़र) की अपनी कैश मेमोरी चिप, स्टोरेज बफ़र्स हैं। . इसे अलग-अलग तरीकों से लागू किया जाता है - सॉफ्टवेयर और हार्डवेयर में।

  • एक प्रोग्राम कैश बस एक अलग फ़ोल्डर या फ़ाइल है जिसमें, उदाहरण के लिए, चित्र, मेनू, स्क्रिप्ट, मल्टीमीडिया सामग्री और विज़िट की गई साइटों की अन्य सामग्री लोड की जाती है। जब आप किसी वेब पेज को दोबारा खोलते हैं तो ब्राउज़र सबसे पहले इसी फ़ोल्डर में जाता है। स्थानीय भंडारण से कुछ सामग्री को पेजिंग करने से इसकी लोडिंग तेज हो जाती है और नेटवर्क ट्रैफ़िक कम हो जाता है।

  • स्टोरेज डिवाइस (विशेष रूप से, हार्ड ड्राइव) में, कैश 1-256 एमबी की क्षमता वाली एक अलग रैम चिप होती है, जो इलेक्ट्रॉनिक्स बोर्ड पर स्थित होती है। यह चुंबकीय परत से पढ़ी गई जानकारी प्राप्त करता है और अभी तक रैम में लोड नहीं किया गया है, साथ ही वह डेटा भी प्राप्त करता है जो ऑपरेटिंग सिस्टम द्वारा सबसे अधिक बार अनुरोध किया जाता है।

  • एक आधुनिक केंद्रीय प्रोसेसर में कैश मेमोरी के 2-3 मुख्य स्तर (जिसे अल्ट्रा-रैंडम एक्सेस मेमोरी भी कहा जाता है) होते हैं, जो एक ही चिप पर हार्डवेयर मॉड्यूल के रूप में स्थित होते हैं। आकार में सबसे तेज़ और सबसे छोटा (32-64 Kb) कैश लेवल 1 (L1) है - यह प्रोसेसर के समान आवृत्ति पर काम करता है। L2 गति और क्षमता (128 Kb से 12 Mb तक) में औसत स्थान रखता है। और L3 सबसे धीमा और सबसे बड़ा (40 एमबी तक) है, और कुछ मॉडलों पर अनुपस्थित है। L3 की गति केवल अपने तेज भाइयों की तुलना में कम है, लेकिन यह सबसे अधिक उत्पादक रैम की तुलना में सैकड़ों गुना तेज है।

प्रोसेसर की फ्लैश मेमोरी का उपयोग रैम और मशीन कोड निर्देशों से पंप किए गए लगातार उपयोग किए गए डेटा को संग्रहीत करने के लिए किया जाता है। यह जितना अधिक होगा, प्रोसेसर उतना ही तेज़ होगा।

आज, कैशिंग के तीन स्तर अब सीमा नहीं रह गए हैं। सैंडी ब्रिज आर्किटेक्चर के आगमन के साथ, इंटेल ने अपने उत्पादों में एक अतिरिक्त कैश L0 (डिक्रिप्टेड माइक्रोइंस्ट्रक्शन को संग्रहीत करने के लिए) लागू किया। और सबसे उच्च प्रदर्शन वाले सीपीयू में एक चौथे स्तर का कैश भी होता है, जो एक अलग चिप के रूप में बनाया जाता है।

योजनाबद्ध रूप से, कैश स्तर L0-L3 की परस्पर क्रिया इस तरह दिखती है (Intel Xeon के उदाहरण का उपयोग करके):

यह सब कैसे काम करता है इसके बारे में मानवीय भाषा में

यह समझने के लिए कि कैश मेमोरी कैसे काम करती है, आइए एक डेस्क पर काम करने वाले व्यक्ति की कल्पना करें। जिन फ़ोल्डरों और दस्तावेज़ों का वह लगातार उपयोग करता है वे टेबल पर (कैश मेमोरी में) होते हैं। उन तक पहुंचने के लिए, बस अपना हाथ बढ़ाएं।

जिन कागज़ों की उसे कम आवश्यकता होती है वे पास में ही अलमारियों (रैम में) में रखे जाते हैं। उन्हें पाने के लिए, आपको खड़े होकर कुछ मीटर चलना होगा। और जिस चीज़ के साथ कोई व्यक्ति वर्तमान में काम नहीं करता है वह संग्रहीत (हार्ड ड्राइव पर दर्ज) है।

तालिका जितनी चौड़ी होगी, उतने ही अधिक दस्तावेज़ उस पर फिट होंगे, जिसका अर्थ है कि कार्यकर्ता बड़ी मात्रा में जानकारी तक तुरंत पहुंचने में सक्षम होगा (सैद्धांतिक रूप से, कैश क्षमता जितनी बड़ी होगी, प्रोग्राम या डिवाइस उतनी ही तेज़ी से काम करेगा)।

कभी-कभी वह गलतियाँ करता है - वह अपने डेस्क पर ऐसे कागजात रखता है जिनमें गलत जानकारी होती है और उन्हें अपने काम में उपयोग करता है। परिणामस्वरूप, उसके काम की गुणवत्ता कम हो जाती है (कैश त्रुटियों के कारण प्रोग्राम और हार्डवेयर में खराबी आ जाती है)। स्थिति को ठीक करने के लिए, कर्मचारी को त्रुटियों वाले दस्तावेज़ों को बाहर फेंकना होगा और सही दस्तावेज़ों को उनके स्थान पर रखना होगा (कैश मेमोरी साफ़ करें)।

तालिका का क्षेत्र सीमित है (कैश मेमोरी की क्षमता सीमित है)। कभी-कभी इसे विस्तारित किया जा सकता है, उदाहरण के लिए, दूसरी तालिका को स्थानांतरित करके, और कभी-कभी ऐसा नहीं किया जा सकता है (यदि प्रोग्राम द्वारा ऐसी संभावना प्रदान की जाती है तो कैश का आकार बढ़ाया जा सकता है; हार्डवेयर कैश को बदला नहीं जा सकता, क्योंकि यह हार्डवेयर में लागू होता है) .

डेस्क की क्षमता से अधिक दस्तावेजों तक पहुंच को तेज करने का एक और तरीका यह है कि एक सहायक शेल्फ से कार्यकर्ता के कागजात की सेवा करे (ऑपरेटिंग सिस्टम डिवाइस डेटा को कैश करने के लिए कुछ अप्रयुक्त रैम को आवंटित कर सकता है)। लेकिन उन्हें टेबल से हटाने की तुलना में यह अभी भी धीमा है।

हाथ में मौजूद दस्तावेज़ वर्तमान कार्यों के लिए प्रासंगिक होने चाहिए। कर्मचारी को स्वयं इसकी निगरानी करनी होगी। आपको चीजों को नियमित रूप से व्यवस्थित करने की आवश्यकता है (कैश मेमोरी से अप्रासंगिक डेटा को हटाने का काम उन अनुप्रयोगों के कंधों पर आता है जो इसका उपयोग करते हैं; कुछ कार्यक्रमों में स्वचालित कैश साफ़ करने का कार्य होता है)।

यदि कोई कर्मचारी कार्यस्थल में व्यवस्था बनाए रखना और दस्तावेज़ीकरण को अद्यतन रखना भूल जाता है, तो वह स्वयं डेस्क की सफाई का शेड्यूल बना सकता है और इसे अनुस्मारक के रूप में उपयोग कर सकता है। अंतिम उपाय के रूप में, इसे एक सहायक को सौंपें (यदि कैश मेमोरी पर निर्भर कोई एप्लिकेशन धीमा हो गया है या अक्सर अप्रासंगिक डेटा डाउनलोड करता है, तो एक शेड्यूल पर कैश सफाई उपकरण का उपयोग करें या हर कुछ दिनों में मैन्युअल रूप से इस हेरफेर को करें)।

हम वास्तव में हर जगह "कैशिंग फ़ंक्शन" देखते हैं। इसमें भविष्य में उपयोग के लिए किराने का सामान खरीदना, और विभिन्न कार्य जो हम एक ही समय में करते हैं, आदि शामिल हैं। अनिवार्य रूप से, यह वह सब है जो हमें अनावश्यक उपद्रव और अनावश्यक आंदोलनों से बचाता है, हमारे जीवन को सुव्यवस्थित करता है और हमारे काम को आसान बनाता है। कंप्यूटर भी यही करता है. संक्षेप में, यदि कैश नहीं होता, तो यह सैकड़ों और हजारों गुना धीमी गति से काम करता। और हम शायद इसे पसंद नहीं करेंगे.

f1comp.ru

कैश, कैश, कैश - मेमोरी। कैश मेमोरी का उपयोग किस लिए किया जाता है? प्रदर्शन पर कैश आकार और गति का प्रभाव।

कैश - मेमोरी (कैश, कैश, बफर - इंजी) - डिजिटल उपकरणों में हाई-स्पीड क्लिपबोर्ड के रूप में उपयोग किया जाता है। कैश मेमोरी कंप्यूटर उपकरणों जैसे हार्ड ड्राइव, प्रोसेसर, वीडियो कार्ड, नेटवर्क कार्ड, सीडी ड्राइव और कई अन्य पर पाई जा सकती है।

कैश का संचालन सिद्धांत और वास्तुकला बहुत भिन्न हो सकती है।

उदाहरण के लिए, कैश एक नियमित क्लिपबोर्ड के रूप में काम कर सकता है। डिवाइस डेटा को संसाधित करता है और इसे हाई-स्पीड बफर में स्थानांतरित करता है, जहां नियंत्रक डेटा को इंटरफ़ेस पर प्रसारित करता है। इस तरह के कैश का उद्देश्य त्रुटियों को रोकना, अखंडता के लिए हार्डवेयर जांच डेटा, या किसी डिवाइस से सिग्नल को बिना किसी देरी के इंटरफ़ेस के लिए समझने योग्य सिग्नल में एन्कोड करना है। इस प्रणाली का उपयोग, उदाहरण के लिए, सीडी/डीवीडी ड्राइव में किया जाता है।

दूसरे मामले में, कैश अक्सर उपयोग किए जाने वाले कोड को संग्रहीत करने का काम कर सकता है और इस तरह डेटा प्रोसेसिंग को गति दे सकता है। यानी, डिवाइस को डेटा की दोबारा गणना करने या देखने की आवश्यकता नहीं है, जिसे कैश से पढ़ने में अधिक समय लगेगा। इस मामले में, कैश का आकार और गति बहुत महत्वपूर्ण भूमिका निभाती है।


यह आर्किटेक्चर अक्सर हार्ड ड्राइव, एसएसडी ड्राइव और सेंट्रल प्रोसेसिंग यूनिट (सीपीयू) पर पाया जाता है।

जब डिवाइस काम कर रहे होते हैं, तो विशेष फर्मवेयर या डिस्पैचर प्रोग्राम को कैश में लोड किया जा सकता है, जो ROM (रीड-ओनली मेमोरी) के साथ अधिक धीमी गति से काम करेगा।

अधिकांश आधुनिक उपकरण मिश्रित प्रकार के कैश का उपयोग करते हैं, जो क्लिपबोर्ड और अक्सर उपयोग किए जाने वाले कोड को स्टोर करने दोनों के रूप में काम कर सकता है।

प्रोसेसर और वीडियो चिप्स के कैश के लिए कई बहुत महत्वपूर्ण कार्य लागू किए गए हैं।

निष्पादन इकाइयों का संयोजन. केंद्रीय प्रसंस्करण इकाइयां और वीडियो प्रोसेसर अक्सर कोर के बीच तेजी से साझा किए गए कैश का उपयोग करते हैं। तदनुसार, यदि एक कोर ने जानकारी संसाधित की है और यह कैश में है, और उसी ऑपरेशन के लिए, या इस डेटा के साथ काम करने के लिए एक कमांड प्राप्त होता है, तो डेटा को प्रोसेसर द्वारा दोबारा संसाधित नहीं किया जाएगा, बल्कि से लिया जाएगा आगे की प्रक्रिया के लिए कैश। अन्य डेटा को संसाधित करने के लिए कर्नेल को ऑफलोड किया जाएगा। यह समान लेकिन जटिल गणनाओं में प्रदर्शन को महत्वपूर्ण रूप से बढ़ाता है, खासकर यदि कैश बड़ा और तेज़ है।

साझा कैश धीमी रैम को दरकिनार करते हुए कोर को सीधे इसके साथ काम करने की अनुमति देता है।

निर्देशों के लिए कैश. निर्देशों और अन्य कार्यों के लिए या तो एक साझा, बहुत तेज़ L1 कैश है, या उनके लिए एक समर्पित कैश है। प्रोसेसर में जितने अधिक निर्देश संग्रहीत होते हैं, उसे उतने ही बड़े निर्देश कैश की आवश्यकता होती है। यह मेमोरी विलंबता को कम करता है और निर्देश ब्लॉक को लगभग स्वतंत्र रूप से कार्य करने की अनुमति देता है, जब यह भर जाता है, तो निर्देश ब्लॉक समय-समय पर निष्क्रिय होने लगता है, जिससे गणना की गति धीमी हो जाती है।

अन्य कार्य एवं विशेषताएँ।

उल्लेखनीय है कि सीपीयू (सेंट्रल प्रोसेसिंग यूनिट) में, हार्डवेयर त्रुटि सुधार (ईसीसी) का उपयोग किया जाता है, क्योंकि कैश में एक छोटी सी त्रुटि इस डेटा की आगे की प्रक्रिया के दौरान एक निरंतर त्रुटि का कारण बन सकती है।

सीपीयू और जीपीयू में एक कैश पदानुक्रम होता है जो आपको व्यक्तिगत कोर और सामान्य कोर के लिए डेटा को अलग करने की अनुमति देता है। हालाँकि दूसरे स्तर के कैश से लगभग सभी डेटा अभी भी तीसरे, सामान्य स्तर पर कॉपी किया जाता है, लेकिन हमेशा नहीं। पहला कैश स्तर सबसे तेज़ है, और प्रत्येक बाद वाला धीमा है, लेकिन आकार में बड़ा है।

प्रोसेसर के लिए, तीन या उससे कम कैश स्तर सामान्य माने जाते हैं। यह गति, कैश आकार और गर्मी अपव्यय के बीच संतुलन की अनुमति देता है। वीडियो प्रोसेसर में दो से अधिक कैश स्तर ढूँढना कठिन है।

कैश आकार, प्रदर्शन और अन्य विशेषताओं पर प्रभाव।

स्वाभाविक रूप से, कैश जितना बड़ा होगा, वह उतना अधिक डेटा संग्रहीत और संसाधित कर सकता है, लेकिन यहां एक गंभीर समस्या है।

बड़े कैश का अर्थ है बड़ा ट्रांजिस्टर बजट। सर्वर प्रोसेसिंग यूनिट (सीपीयू) में, कैश ट्रांजिस्टर बजट का 80% तक उपयोग कर सकता है। सबसे पहले, यह अंतिम लागत को प्रभावित करता है, और दूसरा, ऊर्जा की खपत और गर्मी अपव्यय में वृद्धि होती है, जो कई प्रतिशत बढ़ी हुई उत्पादकता के बराबर नहीं है।