आर्टिफिशियल इंटेलिजेंस भाषा की महारत है। क्या हमें उसकी बातों पर भरोसा करना चाहिए?

“मुझे लगता है कि यह हमें सुरक्षा मुद्दों के बारे में अधिक विचारशील और अधिक चिंतनशील होने की अनुमति देता है,” ऑल्टमैन कहते हैं। “हमारी रणनीति का एक हिस्सा है: दुनिया में वृद्धिशील परिवर्तन अचानक परिवर्तन से बेहतर है।” या, जैसा कि OpenAI की वीपी मीरा मोराट्टी ने कहा, जब मैंने उनसे सॉफ़्टवेयर तक खुली पहुंच को प्रतिबंधित करने वाली सुरक्षा टीम के काम के बारे में पूछा, “अगर हम सीखना चाहते हैं कि इन शक्तिशाली तकनीकों को कैसे तैनात किया जाए, तो चलिए शुरू करते हैं जब दांव बहुत कम होते हैं। ।”

जबकि GPT-3 ही आयोवा में एक सुपरकंप्यूटर क्लस्टर में 285,000 सीपीयू कोर पर चल रहा है, ओपनएआई एक नवीनीकृत सामान कारखाने में सैन फ्रांसिस्को के मिशन क्षेत्र से बाहर चल रहा है। पिछले साल नवंबर में, मैं वहां इल्या सोत्स्केफर से मिला, एक आम आदमी के स्पष्टीकरण को जानने की कोशिश कर रहा था कि जीपीटी -3 वास्तव में कैसे काम करता है।

“यह GPT-3 का मूल विचार है,” सोत्सकेवर ने अपनी कुर्सी पर आगे झुकते हुए, ध्यान से कहा। उनके पास सवालों के जवाब देने का एक दिलचस्प तरीका है: कुछ झूठी शुरुआत – “मैं आपको एक विवरण दे सकता हूं जो आपके द्वारा पूछे गए विवरण से मोटे तौर पर मेल खाता है” – लंबे ध्यान के विराम से बाधित, जैसे कि वह प्रगति पर पूरी प्रतिक्रिया को चार्ट कर रहा है।

उन्होंने अंत में कहा: ‘जीपीटी -3 का मूल विचार किसी चीज को समझने की सहज धारणा को जोड़ने का एक तरीका है जिसे यंत्रवत् रूप से मापा और समझा जा सकता है, और यह पाठ में अगले शब्द की भविष्यवाणी करने का कार्य है। कृत्रिम बुद्धिमत्ता के अन्य रूप दुनिया के बारे में जानकारी को सांकेतिक शब्दों में बदलने का प्रयास करते हैं: महान स्वामी की शतरंज रणनीतियाँ, जलवायु विज्ञान के सिद्धांत। लेकिन GPT-3 इंटेलिजेंस, अगर इंटेलिजेंस इसके लिए शब्द है, तो नीचे से ऊपर की ओर आता है: अगले शब्द की भविष्यवाणी करने के लिए तात्विक क्रिया के माध्यम से। GPT-3 प्रशिक्षण के लिए, मॉडल को एक “प्रॉम्प्ट” दिया जाता है—उदाहरण के लिए, अखबार के लेख से कुछ वाक्य या पाठ के पैराग्राफ, उदाहरण के लिए, या एक उपन्यास या एक वैज्ञानिक पेपर—और फिर संभावित शब्दों की एक सूची का सुझाव देने के लिए कहा जाता है। संभाव्यता द्वारा आदेशित अनुक्रम को पूरा कर सकता है। प्रशिक्षण के प्रारंभिक चरण में, प्रस्तावित शब्द बकवास हैं। एल्गोरिथ्म को एक वाक्य के साथ पूछें जैसे “लेखक ने पहले शब्द से अंतिम शब्द हटा दिया है …” और अनुमान बकवास की एक धारा की तरह होगा: सूची – सही लापता शब्द प्रकट होता है: “पैराग्राफ।” फिर कार्यक्रम किसी भी यादृच्छिक तंत्रिका कनेक्शन को मजबूत और कमजोर करता है जो उस विशेष सुझाव को उत्पन्न करता है सभी कनेक्शन जो गलत अनुमान उत्पन्न करते हैं। फिर यह अगले राउटर पर चला जाता है। समय के साथ, पर्याप्त पुनरावृत्तियों के साथ, कार्यक्रम सीखता है।

READ  YouTube के आविष्कारक ने यह पता लगा लिया होगा कि मैजिक माउस अजीब तरह से चार्ज क्यों हो रहा है

जनवरी में वापस, OpenAI ने एक ऐसी सुविधा जोड़ी जो उपयोगकर्ताओं को एक नमूना पाठ पर विस्तार करने की आवश्यकता के बजाय, एक संकेत के रूप में प्रत्यक्ष GPT-3 निर्देश देने की अनुमति देती है। उदाहरण के लिए, हेल्प मोड का उपयोग करते हुए, GPT-3 को एक बार संकेत दिया गया था: “इटालो कैल्विनो के काम में मेटाफिक्शन की भूमिका पर चर्चा करते हुए एक निबंध लिखें।” एक संक्षिप्त पैराग्राफ जो इस प्रकार शुरू हुआ:

इटालियन लेखक इटालो कैल्विनो को मेटाफिक्शन का विशेषज्ञ माना जाता है, एक प्रकार का लेखन जिसमें लेखक स्वयं लेखन के कार्य पर चर्चा करने के लिए चौथी दीवार तोड़ता है। कैल्विनो के लिए, मेटाफिक्शन वास्तविकता की प्रकृति की खोज करने का एक तरीका है और जिस तरह से कहानियां दुनिया की हमारी धारणाओं को आकार दे सकती हैं। उनके उपन्यासों में अक्सर चंचल संरचनाएं और लेबिरिंथ शामिल होते हैं जो वास्तविकता और कल्पना के बीच की सीमाओं में हेरफेर करते हैं। मामले में यदि यात्री सर्दियों की रात में है, उदाहरण के लिए, पाठक पढ़ने के कार्य और कहानी कहने की प्रकृति के मेटा-स्तर पर चर्चाओं से लगातार बाधित होता है। . . .

आप GPT-3 को बार-बार एक ही संकेत दे सकते हैं, और हर बार यह एक अनूठी प्रतिक्रिया उत्पन्न करेगा, दूसरों की तुलना में कुछ अधिक प्रेरक लेकिन लगभग सभी उल्लेखनीय रूप से सीधी। सांकेतिक संकेत सभी प्रकार के रूप ले सकते हैं: “मुझे बोलोग्नीज़ सॉस में सभी सामग्रियों की एक सूची दें,” “जॉन एशबेरी शैली में एक फ्रांसीसी समुद्र तटीय गांव के बारे में एक कविता लिखें,” “बिग बैंग की भाषा में व्याख्या करें कि एक 8-वर्ष -पुराना समझता है। ”कभी-कभी मैंने इस तरह की जीपीटी -3 उत्तेजनाओं को खिलाया, मुझे लगा कि असली हंसबंप मेरी रीढ़ की हड्डी के नीचे चल रहे हैं। मशीन के लिए भविष्यवाणी करने के लिए प्रारंभिक प्रशिक्षण के आधार पर इतना स्पष्ट और उत्तरदायी पाठ उत्पन्न करना लगभग असंभव लग रहा था। अगला शब्द।

READ  किंगडम हार्ट क्लाउड संस्करण 'सर्वर व्यस्त' चेतावनी प्राप्त करें

लेकिन एआई का वास्तव में सामान वितरित किए बिना बुद्धिमत्ता या समझ का भ्रम पैदा करने का एक लंबा इतिहास है। पर बहुत चर्चित पेपर पिछले साल प्रकाशित, वाशिंगटन विश्वविद्यालय के भाषा विज्ञान के प्रोफेसर एमिली एम. बेंडर, Google के पूर्व शोधकर्ता टिमनीत गेब्रू और सह-लेखकों के एक समूह ने घोषणा की कि बड़े भाषा मॉडल सिर्फ ‘यादृच्छिक तोते’ थे: यानी, कार्यक्रम केवल वाक्यों को रीमिक्स करने के लिए यादृच्छिककरण का उपयोग कर रहा था। यह लिखा था मानव। बेंडर ने हाल ही में मुझे ईमेल के माध्यम से बताया: “जो बदल गया है वह ‘कृत्रिम बुद्धिमत्ता’ की ओर एक निश्चित सीमा से कुछ कदम ऊपर नहीं है। इसके बजाय, उसने कहा, जो बदल गया है वह ‘हार्डवेयर, सॉफ्टवेयर और आर्थिक नवाचार हैं जो बड़े पैमाने पर संचय और प्रसंस्करण की अनुमति देते हैं। डेटा के सेट’ – साथ ही संस्कृति प्रौद्योगिकी जो “ऐसी चीज़ों को बनाने और बेचने वाले लोगों के पास हो सकती है” गलत डेटा की नींव पर इसे बनाने से बहुत दूर है।”

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *