कृत्रिम बुद्धिमत्ता मानवता के लिए क्या खतरा पैदा कर सकती है? कृत्रिम बुद्धिमत्ता, मानव जाति के अस्तित्व के लिए एक संभावित खतरा। क्या कोई सुपरकैलकुलेटर धमकी दे सकता है

और अन्य प्रसिद्ध शोधकर्ताओं ने कृत्रिम बुद्धि (एआई) विकास के क्षेत्र में सुरक्षा मानकों के निर्माण के लिए एक खुला पत्र लिखा। /वेबसाइट/

विशेष रूप से, उन्होंने एक विश्वसनीय नियंत्रण प्रणाली के अनुसंधान और विकास का आह्वान किया जो लोगों को नुकसान पहुंचाने के लिए कृत्रिम बुद्धिमत्ता की खराबी की अनुमति नहीं देगा। पत्र में कहा गया है, "पूर्ण मानव नियंत्रण सुनिश्चित करने के लिए तकनीकी कार्य किए जाने की आवश्यकता है।"

पत्र के मध्यम स्वर के बावजूद, नई तकनीक से भयभीत लुडाइट्स घबरा गए। जवाब में, प्रेस में वैज्ञानिकों के बहुत सारे साक्षात्कार और बयान सामने आए जिन्होंने इन आशंकाओं को दूर किया।

Baidu के एआई विशेषज्ञ एंड्रयू एनजी ने फ़्यूज़न को बताया, "मुझे उस सॉफ़्टवेयर के लिए एक यथार्थवादी परिदृश्य नहीं दिख रहा है जिस पर हम आज काम कर रहे हैं ताकि विघटनकारी हो सके।"

बदले में, पत्रकार स्कॉट अलेक्जेंडर ने एआई के विकास में शामिल प्रसिद्ध वैज्ञानिकों की एक सूची तैयार की, जिन्होंने इस बारे में बात की संभावित खतराएआई की तरफ से।

भय और आशंका

बर्कले में कैलिफोर्निया विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर स्टुअर्ट रुसर ने परमाणु रिएक्टरों की सुरक्षा के उपायों के कार्यान्वयन के साथ एआई को नियंत्रित करने के लिए तंत्र के विकास की तुलना की।

"कुछ लोगों का मानना ​​है कि यह मुद्दा अगले कुछ सौ वर्षों में मानवता के लिए खतरा पैदा नहीं करता है। वे भूल जाते हैं कि लियो स्ज़ीलार्ड ने श्रृंखला खोली थी परमाणु प्रतिक्रिया 24 घंटे बाद रदरफोर्ड ने आत्मविश्वास से घोषणा की कि परमाणु ऊर्जा कभी प्राप्त नहीं होगी, ”रसेल ने लिखा।

उनकी राय में रसेल अकेले नहीं हैं। 2014 में 170 प्रमुख एआई विशेषज्ञों के विंसेंट मुलर और निक बोस्ट्रोम द्वारा किए गए सर्वेक्षण में, उनमें से 18% का मानना ​​था कि सुपर-इंटेलिजेंट मशीन का निर्माण मानवता के लिए एक "वास्तविक आपदा" होगी। 13% ने कहा कि उन्नत AI प्रदान करेगा नकारात्मक परिणामलोगों के लिए। आधे से अधिक वैज्ञानिकों ने कहा कि इसका सकारात्मक प्रभाव पड़ेगा।

हालांकि एआई के प्रभाव पर विशेषज्ञों की राय अस्पष्ट है, अधिकांश सहमत हैं कि उन्नत एआई का निर्माण केवल समय की बात है। पूर्वानुमानों के अनुसार, मानव के बराबर एक एआई 2050 (50% संभावना) या 2075 (90% संभावना) तक बनाया जाएगा। और इसके निर्माण के 30 साल बाद, एक कृत्रिम अधीक्षण प्रकट होगा जो सभी पहलुओं में मनुष्यों से आगे निकल जाएगा।

पागल ट्रक

मशीनों का उदय कैसा दिख सकता है? साइंस फिक्शन फिल्मों में, जैसे "टर्मिनेटर", "रोबोट", "एनिमेट्रिक्स", साइबोर्ग वाले लोगों के युद्ध को दिखाया गया है।

साइंस फिक्शन फिल्मों को देखते हुए, कई लोग इस धारणा के तहत हो सकते हैं कि संभावित खतरे से बचना आसान है।आखिरकार, एआई मूल रूप से सिर्फ कंप्यूटर सॉफ्टवेयर है।

हालाँकि, कृत्रिम बुद्धिमत्ता की आवश्यकता नहीं है यांत्रिक शरीरवास्तविक दुनिया में सत्ता हासिल करने के लिए: वह हमारे सभी दैनिक इलेक्ट्रॉनिक उपकरणों को नियंत्रित करना शुरू कर सकता है।

स्टीफन किंग ने लघु कहानी "ट्रक" में ऐसा ही एक परिदृश्य प्रस्तुत किया। 70 के दशक में लिखी गई कहानी में ट्रक होश में आ जाते हैं और लोगों पर हमला करने लगते हैं। गुस्साए ट्रकों से लोगों का एक समूह छिप जाता है। ट्रकों को अभी भी संचालित करने के लिए ईंधन की आवश्यकता होती है, और वे लोगों को उन्हें भरने के लिए आदेश देने के लिए मोर्स कोड का उपयोग करते हैं या बुलडोजर उनके कवर को उड़ा देगा। लोग मानते हैं।

कहानी कथाकार की दृष्टि के साथ समाप्त होती है कि ट्रकों ने मानव जाति को गुलाम बना लिया है और अपने मूल्यों को हर जगह थोप रहे हैं, जैसे कि उन्हें दुनिया भर में राजमार्ग बनाने के लिए मजबूर करना। आकाश में उड़ने वाले हवाई जहाज की आवाज से उसे उसकी काल्पनिक दुनिया से बाहर खींच लिया जाता है।

स्टीफन किंग की कहानी जिस युग में लिखी गई थी, उसमें भविष्यवादी लग रही थी, लेकिन यह वास्तविकता से बहुत दूर नहीं है। आधुनिक दुनिया. सेल्फ ड्राइविंग ट्रकपहले से मौजूद है, और भविष्य में, कंपनियां पैसे बचाने के लिए ड्राइवरों को एक स्वायत्त नेविगेशन सिस्टम से बदल सकती हैं।

पिछले साल सोनी हैक प्रदर्शित करता है कि हमारी सूचना प्रणाली तेजी से कमजोर होती जा रही है। यह अवसंरचना के बढ़ते कम्प्यूटरीकरण के परिणामों में से एक है।

हालांकि, अभी तक चिंता का कोई कारण नहीं है। आर्टिफिशियल इंटेलिजेंस को मानव मस्तिष्क से मेल खाने से पहले एक लंबा रास्ता तय करना है। सेल्फ-ड्राइविंग ट्रक का उदाहरण इसे अच्छी तरह से दिखाता है। जबकि वे अभी भी भीड़-भाड़ वाली शहर की सड़कों से स्वतंत्र रूप से ड्राइव करने के लिए अपूर्ण हैं।

क्या आप अपने फ़ोन पर युगांतरकारी लेख पढ़ने के लिए कोई एप्लिकेशन इंस्टॉल करेंगे?

जब लोग ऐसी तकनीक देखते हैं जो एक व्यक्ति की तरह व्यवहार करती है और कंप्यूटर जो टाइटैनिक मात्रा में डेटा को संसाधित करते हैं, तो भविष्य के बारे में कई विचार होते हैं। उनमें से एक अच्छा हिस्सा मानव जाति की दासता के विषय पर आधारित है।

2001 से साइंस फिक्शन साहित्य और सिनेमा: ए स्पेस ओडिसी (1968) टू एवेंजर्स: एज ऑफ अल्ट्रॉन (2015) का अनुमान है कि कृत्रिम बुद्धिमत्ता रचनाकारों की अपेक्षाओं को पार कर जाएगी और नियंत्रण से बाहर हो जाएगी। कथित तौर पर, उसका लक्ष्य सिर्फ मनुष्यों के साथ प्रतिस्पर्धा नहीं होगा, बल्कि हमारी प्रजातियों की दासता और विनाश होगा।

साइंस फिक्शन या डरावना भविष्य?

मनुष्यों और कृत्रिम बुद्धिमत्ता के बीच संघर्ष विज्ञान-फाई श्रृंखला "पीपल" का मुख्य विषय है, जिसका तीसरा सीज़न इस साल जारी किया गया था। नए एपिसोड में, "सिंथेटिक" लोगों को दुश्मनी का सामना करना पड़ता है आम लोगजो उनके साथ संदेह, भय और घृणा की दृष्टि से पेश आते हैं। हिंसा व्याप्त है। "सिंथ" अपने मूल अधिकारों के लिए उन लोगों के खिलाफ लड़ रहे हैं जो उन्हें अमानवीय मानते हैं।

कल्पना कल्पना में परम है। लेकिन वास्तविक दुनिया में भी, हर कोई एआई का खुले हाथों से स्वागत करने को तैयार नहीं है। में पिछले सालकृत्रिम बुद्धिमत्ता की काल्पनिक संभावनाओं की सीमाएँ सक्रिय रूप से अलग हो रही हैं। लोग इसके खतरे के बारे में ज्यादा से ज्यादा बात कर रहे हैं। और यह धारणा कि प्रौद्योगिकी मानवता को बर्बाद कर सकती है, अधिक वास्तविक लगती है। कृत्रिम होशियारीहमें डराता है।

आर्टिफिशियल इंटेलिजेंस पर राय

एलोन मस्क एआई पर चर्चा करते समय सावधानी बरतने वाले सबसे प्रमुख लोगों में से एक हैं। पिछले जुलाई में, नेशनल गवर्नर्स एसोसिएशन की एक बैठक में, उन्होंने कहा: "मेरे पास तकनीकी एआई के साथ बहुत अनुभव है और मुझे लगता है कि मानवता को वास्तव में इस बारे में चिंता करने की ज़रूरत है। मैं अलार्म बजाता रहता हूं। जब तक रोबोट कारें सड़कों पर नहीं उतरतीं, लोगों को नष्ट कर देती हैं, तब तक हम समझ नहीं पाएंगे कि इस पर कैसे प्रतिक्रिया दें, क्योंकि इस तरह की संभावना को अवास्तविक माना जाता है।

2014 में, मस्क ने कृत्रिम बुद्धिमत्ता को "हमारा सबसे बड़ा अस्तित्वगत खतरा" कहा, और अगस्त 2017 में उन्होंने कहा कि AI उत्तर कोरियाई विचारधारा की तुलना में मानवता के लिए एक बड़ा जोखिम है।

महान भौतिक विज्ञानी स्टीफन हॉकिंग ने भी कृत्रिम बुद्धि के दुर्भावनापूर्ण उपयोग के बारे में चिंता व्यक्त की है। 2014 में, उन्होंने बीबीसी को बताया कि "पूर्ण एआई का विकास मानवता के लिए अंत का शगुन हो सकता है।"

कैम्ब्रिज में एमआईटी मीडिया लैब में प्रोग्रामर्स की एक टीम को एक और झटका लगा, जिसने यह साबित करने का फैसला किया कि एआई खतरनाक है। 2016 में एमआईटी में प्रस्तुत, दुःस्वप्न मशीन तंत्रिका नेटवर्क ने सामान्य तस्वीरों को भयानक, राक्षसी परिदृश्य में बदल दिया। शेली (MIT में भी विकसित) नामक एक कृत्रिम बुद्धिमत्ता ने 140,000 डरावनी कहानियाँ बनाईं जिन्हें Reddit उपयोगकर्ताओं ने r/nosleep फ़ोरम पर पोस्ट किया।

एमआईटी मीडिया लैब के शोध प्रबंधक मैनुअल सेब्रियन ने टिप्पणी की, "हम इस बात में रुचि रखते हैं कि कृत्रिम बुद्धि कैसे भावनाओं का कारण बनती है, विशेष रूप से इस स्थिति में, उन्होंने डर को उकसाया।"

हम क्यों डरते हैं?

कॉर्नेल विश्वविद्यालय में कंप्यूटर विज्ञान के सहायक प्रोफेसर किलियन वेनबर्गर के अनुसार, कृत्रिम बुद्धि के साथ नकारात्मक अनुभव दो श्रेणियों में आते हैं:

यह विचार कि एआई होशपूर्वक स्वतंत्र हो जाएगा और हमें नष्ट करने का प्रयास करेगा।
राय है कि हमलावर अपने उद्देश्यों के लिए एआई का उपयोग करेंगे।

"कृत्रिम बुद्धिमत्ता हमें डराती है क्योंकि हम सोचते हैं कि सुपर-औद्योगिक एआई, एक व्यक्ति से अधिक स्मार्ट बनने के बाद, उसे एक हीन व्यक्ति के रूप में मानेगा। ठीक वैसे ही जैसे हम प्राइमेट के साथ करते हैं। और यह, ज़ाहिर है, मानवता के लिए बेहद रोमांचक है।"

हालांकि, वेनबर्गर बताते हैं कि दौड़ को नष्ट करने के लिए एआई की श्रेष्ठता और इच्छा के बारे में चिंताएं इस तकनीक के बारे में गलत धारणाओं पर आधारित हैं। जब हम इसे क्रिया में देखते हैं तो कृत्रिम बुद्धिमत्ता प्रभावशाली होती है। लेकिन इसकी भी बहुत सी सीमाएँ हैं। एआई को एल्गोरिदम द्वारा परिभाषित किया गया है। वे इसके व्यवहार को निर्धारित कार्यों के साथ परिभाषित करते हैं और कुछ नहीं।

तंत्रिका नेटवर्क कई प्रकार के डेटा के साथ जटिल कार्य करते हैं। लेकिन अधिकांश कौशल जो एक व्यक्ति के पास होते हैं, यहां तक ​​कि उन्हें जानबूझकर विकसित किए बिना, मशीन इंटेलिजेंस के लिए दुर्गम होते हैं।

विशेष कार्य करने में आर्टिफिशियल इंटेलिजेंस इंसानों से कई गुना आगे निकल सकता है। उदाहरण के लिए, शतरंज खेलना, छवि द्वारा वस्तुओं की पहचान करना या लेखांकन या बैंकिंग क्षेत्र में बड़े डेटा विश्लेषण।

एआई, जिसमें स्वतंत्र चेतना होगी, उसकी इतनी प्रगति नहीं होगी कि वह मानवता को गुलाम बना ले। और यह मानने का कोई कारण नहीं है कि निकट भविष्य में ऐसी प्रगति दिखाई देगी, वेनबर्गर कहते हैं।

लेकिन एक और विषय है कि कृत्रिम बुद्धिमत्ता हमें क्यों डराती है - बुरे इरादों वाले लोगों द्वारा एआई क्षमताओं का उपयोग। यह परिदृश्य अधिक वास्तविक और खतरनाक है।

क्या हमारा डर तर्कसंगत है?

टेलीविजन श्रृंखला "ह्यूमन्स" की दुनिया में, मानवता बुद्धिमान एआई से डरती है और इसके साथ एक भयंकर टकराव में प्रवेश करती है। और, परियोजना की लोकप्रियता को देखते हुए, यह कथानक समाज के वर्तमान अनुरोध का उत्तर देता है।

प्रौद्योगिकी के डर को अनुचित नहीं कहा जा सकता, क्योंकि एक निश्चित जोखिम निश्चित रूप से मौजूद है। लेकिन किसी भी उपकरण का खतरा उसे नियंत्रित करने वाले के विचारों में होता है। जाहिर है, यह वह मुद्दा है जिसे मानवता को अच्छे की सेवा करने के लिए कृत्रिम बुद्धिमत्ता के लिए हल करने की आवश्यकता है।

उसे भविष्यवाणियां करना पसंद है। पत्रकारों के साथ एक साक्षात्कार में, आविष्कारक ने कहा: "मेरा मानना ​​​​है कि कृत्रिम बुद्धिमत्ता हम सभी को जल्द या बाद में मार देगी।" मस्क के मुताबिक, भविष्य में बेकाबू एआई की समस्या उत्तर कोरिया से भी बदतर होगी। अरबपति का अनुमान है कि मशीनों के साथ टकराव में मानवता के जीवित रहने की संभावना केवल 5-10% है। उसी समय, मशीनों का विद्रोह, जैसा कि फिल्म "टर्मिनेटर" में है, अगले दशक में हो सकता है। क्या एलोन मस्क सही है और क्या पालतू जानवरों का भाग्य रोबोट के साथ हमारा इंतजार करेगा? आइए इसका पता लगाते हैं।

आर्टिफिशियल इंटेलिजेंस क्या है। इस अवधारणा की परिभाषा और सार

इंटेलिजेंस (इंटेलिजेंस) शब्द लैटिन शब्द इंटेलेक्टस से लिया गया है, जिसका अर्थ है कारण, कारण, मन, किसी व्यक्ति की मानसिक क्षमता। आर्टिफिशियल इंटेलिजेंस, आर्टिफिशियल इंटेलिजेंस, एआई को मानव बुद्धि के कार्यों को लेने के लिए मशीनों, रोबोटों की क्षमता के रूप में परिभाषित किया जा सकता है, उदाहरण के लिए, अपने अनुभव और बाहरी स्थिति के आधार पर कई संभावित लोगों से निर्णय लेना।

कृत्रिम बुद्धि के निर्माण का इतिहास

अगर आपको लगता है कि आर्टिफिशियल इंटेलिजेंस की अवधारणा एक उत्पाद है आधुनिक युग, तुम बहुत गलत हो। मनुष्य के समान यांत्रिक जीव बनाने का विचार पुरातनता में उत्पन्न हुआ। इस प्रकार, प्राचीन मिस्रवासियों ने अपने देवता आमोन की एक यांत्रिक मूर्ति बनाई, और होमर के इलियड ने हेफेस्टस द्वारा यांत्रिक प्राणियों को बनाने की प्रक्रिया का वर्णन किया। अरस्तू ने औपचारिक तर्क के बुनियादी नियमों का गठन किया। इस अर्थ में, इसे कृत्रिम बुद्धि का "पूर्वज" माना जा सकता है। स्पेन के गणितज्ञ और दार्शनिक रेमंड लुल ने बौद्धिक समस्याओं को हल करने में सक्षम मशीन बनाने की कोशिश की। लेकिन आखिरकार, इलेक्ट्रॉनिक कंप्यूटरों के निर्माण और साइबरनेटिक्स जैसे विज्ञान के उद्भव के बाद, पिछली शताब्दी के 40 के दशक में ही विज्ञान की एक नई दिशा दिखाई दी। नॉर्बर्ट वीनर ने इस विज्ञान का निर्माण किया।

कृत्रिम बुद्धि की अवधारणा को परिभाषित करने का पहला प्रयास अंग्रेजी वैज्ञानिक एलन ट्यूरिंग द्वारा किया गया था। अपने लेख "कंप्यूटिंग मशीनरी एंड द माइंड" में उन्होंने अपना "ट्यूरिंग टेस्ट" प्रस्तावित किया। इस पाठ में, किसी व्यक्ति के साथ उचित संवाद करने की क्षमता से कंप्यूटर की बुद्धि का आकलन किया गया था।

कृत्रिम बुद्धि के निर्माण पर वैज्ञानिकों के काम में, कई चरणों को प्रतिष्ठित किया जा सकता है। पहली दिशा विश्लेषणात्मक, कार्यात्मक है। मशीनों को रचनात्मक प्रकृति के विशेष कार्य दिए जाते हैं। उदाहरण के लिए, एक चित्र बनाना, एक साहित्यिक पाठ का एक भाषा से दूसरी भाषा में अनुवाद करना।

काम की दूसरी दिशा सिंथेटिक, या मॉडल है। वैज्ञानिक मॉडल बनाने की कोशिश कर रहे हैं रचनात्मक गतिविधिसामान्य रूप से मस्तिष्क। अध्ययन का सार सोच के रूपक का पुनरुत्पादन था। यानी आप जो सीखते हैं वह नहीं, बल्कि आप कैसे सीखते हैं, न कि आपने क्या आविष्कार किया है, बल्कि आप इसे कैसे करते हैं। इस दिशा में, दो मॉडल विकसित हुए हैं। उनमें से एक भूलभुलैया मॉडल था। इसका सार सभी की गणना है विकल्प. आइए एक उदाहरण के रूप में शतरंज के खेल को लें। कार्यक्रम अगला कदम उठाता है और इसकी सफलता या विफलता का मूल्यांकन "वास्तव में" करता है: अन्य लोगों के टुकड़ों पर कब्जा करना, एक स्थितिगत लाभ प्राप्त करना या खोना, आदि।

इस तरह के कार्यक्रम का तर्क यह है कि प्रत्येक चाल पर प्राप्त सफलता पूरे शतरंज के खेल में जीत की ओर ले जाएगी। हालांकि, कोई भी शतरंज खिलाड़ी आपको बताएगा कि आप एक या कई टुकड़ों का त्याग कर सकते हैं, प्रतिद्वंद्वी के राजा के लिए एक जाल को व्यवस्थित करने के लिए अपनी स्थिति के बिगड़ते दृश्य के लिए जाएं। इस मामले में, एक पंक्ति में कई चालें औपचारिक रूप से हार जाएंगी, लेकिन पूरा खेल जीत रहा है। वर्णित दो दृष्टिकोण अनुमानी और गतिशील प्रोग्रामिंग का सार हैं। शतरंज के खिलाड़ी, "हेयुरिस्टिक" कार्यक्रमों के खिलाफ एक गतिशील दृष्टिकोण का उपयोग करते हुए, हमेशा जीते हैं। स्थिति बदल गई जब मशीनों ने एक गतिशील दृष्टिकोण "सीखा"।

सहयोगी मॉडल कृत्रिम बुद्धि का एक और विकास बन गए हैं। मनोविज्ञान संघों को अभ्यावेदन के संबंध के रूप में समझाता है: एक प्रतिनिधित्व दूसरे का कारण बनता है। पावलोव के कुत्ते सिद्धांत का एक ज्वलंत उदाहरण हैं: एक जले हुए प्रकाश बल्ब ने जानवरों को लार का कारण बना दिया। प्रत्येक का निर्णय नया कार्यसाहचर्य मॉडल में, यह पहले से ही हल की गई पुरानी समस्याओं पर आधारित है जो नई के समान है। साहचर्य मॉडल के आधार पर, वर्गीकरण और पैटर्न मान्यता कार्य के लिए आधुनिक कार्यक्रम।

भविष्य में, रोबोट उन्हें प्राप्त होने वाली जानकारी को संचित, संसाधित और उपयोग करना सीखेंगे। जाहिर है, इसके लिए मशीन को खुद से सवाल पूछना सीखना चाहिए: "मैं क्या जानना चाहता हूं", "मुझे लक्ष्य हासिल करने के लिए क्या चाहिए", आदि।

कृत्रिम बुद्धि का आधुनिक अनुप्रयोग

लेकिन अभी तक रोबोट खुद को समझने में सक्षम नहीं हैं। इसके बावजूद, वे मानव जीवन के कई क्षेत्रों में व्यापक रूप से उपयोग किए जाते हैं: चिकित्सा, शिक्षा, व्यवसाय, विज्ञान और रोजमर्रा की जिंदगी। एआई उत्पादन में स्वचालित प्रक्रियाओं का प्रबंधन कर सकता है, यह बड़ी मात्रा में जानकारी जमा करने, संग्रहीत करने और संसाधित करने में सक्षम है।

चिकित्सा में, आईबीएम वाटसन डायग्नोस्टिक कंप्यूटर का व्यापक रूप से उपयोग किया जाता है। इसके डेटाबेस में लाखों मेडिकल दस्तावेज़ और केस हिस्ट्री शामिल हैं। इसके लिए धन्यवाद, मशीन काफी सटीक निदान करने में सक्षम है। हालाँकि, त्रुटि की संभावना, हालांकि नगण्य है, अभी भी मौजूद है। इसलिए, अभी के लिए, यह सुपर पीसी डॉक्टरों के लिए सिर्फ एक सहायक है, और उन्हें पूरी तरह से प्रतिस्थापित नहीं करता है। और जाहिर है, निकट भविष्य में स्थिति नहीं बदलेगी। कम से कम मानव समाज के लिए महत्वपूर्ण क्षेत्रों में।

आर्टिफिशियल इंटेलिजेंस मानवता को कैसे प्रभावित करता है

उपरोक्त के आधार पर, आपको यह आभास हो सकता है कि एआई मनुष्यों के लिए विशेष रूप से फायदेमंद है। हालाँकि, ऐसा नहीं है। उत्पादन में मशीनों की शुरूआत, बैंकिंग क्षेत्र में पहले ही यह तथ्य सामने आया है कि दुनिया भर में लाखों लोगों की नौकरी चली गई है। कुछ सरकारें पहले से ही अपने नागरिकों को बिना शर्त भुगतान कर रही हैं न्यूनतम भुगतानएक सामान्य अस्तित्व बनाए रखने के लिए।

जापान में रोबोट संगीतकार, शिक्षक, होटल कर्मचारी आदि हैं। देश में एआई उगता हुआ सूरजअकेले बुजुर्ग लोगों का समर्थन करता है। और ऐसे कई उदाहरण हैं।

क्या रोबोट आक्रमण संभव है?

क्या मशीनों के आक्रमण से मानवता को खतरा है, जैसा कि फिल्म "टर्मिनेटर" में है? एआई के विकास के किसी चरण में, यह एक वास्तविकता बन सकता है। यह विचार एक मामले से प्रेरित है। सुपर रोबोट सोफिया से पूछा गया कि वह मानवता के लिए क्या करेगी। इस सवाल के लिए, उसने असमान रूप से उत्तर दिया: "मैं मार देती।"

इंजीनियरों ने एक प्रयोग किया। मानव व्यवहार की नकल करने वाली कई मशीनों को उनके अपने उपकरणों पर छोड़ दिया गया था। ऐसी स्वायत्त परिस्थितियों में, उन्होंने एक नई औपचारिक भाषा का आविष्कार किया और एक दूसरे के साथ संवाद करना शुरू कर दिया।

एआई खुद को महसूस करते हुए किसी व्यक्ति को अतिश्योक्तिपूर्ण मान सकता है। शायद हम बस "साफ" हो जाएंगे, कई हजार लोगों को "भंडार" में छोड़ देंगे। लेकिन एक अन्य विकल्प भी संभव है: कुछ तंत्रिका नेटवर्क लोगों में प्रत्यारोपित किए जाएंगे, इस प्रकार एक रोबोट और एक व्यक्ति का एक संकर बन जाएगा। इस मामले में, एक व्यक्ति रोबोट के साथ प्रतिस्पर्धा करेगा और नष्ट नहीं होगा। जो भी हो, यह बहुत दूर के भविष्य की बात है।

कृत्रिम बुद्धि का विकास एक दिन मानव मानसिक क्षमताओं पर अपनी श्रेष्ठता की ओर ले जाएगा। हालांकि, क्या यह मानवता के लिए खतरनाक नहीं होगा? अधिक के परिणामस्वरूप स्थिति का अध्ययन करना संभव है सटीक परिभाषाएआई की अवधारणा, प्राकृतिक बुद्धि को तुलना के आधार के रूप में लेना। क्या मन और बुद्धि को एक ही समय में एक ही व्यक्ति में जोड़ा जा सकता है? या चालाक इंसानएक बौद्धिक और इसके विपरीत नहीं हो सकता है?

एआई के युग के आगमन के संबंध में ऐसे प्रश्न उठते हैं, के बारे में संभावित खतराजिसे मानवता को पहले से जानना चाहिए और उसकी सुरक्षा सुनिश्चित करने के लिए समय पर उपाय करना चाहिए। सबसे पहले, AI का खतरा उसकी स्वतंत्रता और अनियंत्रित निर्णय लेने से जुड़ा होगा। पर इस पलइस समस्या का अध्ययन करने के लिए पहले ही धन आवंटित किया जा चुका है। OpenAI संस्थान AI के विकास की संभावनाओं का अध्ययन करता है। एआई सिस्टम के विकास के वर्तमान चरण में, इसके उपयोग का खतरा निम्नलिखित कारकों से जुड़ा हो सकता है:

  • सॉफ़्टवेयर (सॉफ़्टवेयर) त्रुटियाँ। इस तरह के खतरे से किसी भी सॉफ्टवेयर को खतरा हो सकता है;
  • एआई की स्वतंत्र गतिविधि, मनुष्यों के लिए हानिकारक। आविष्कार के बाद आ सकता है AI से खतरा स्मार्ट कंप्यूटर. इसलिए, कंप्यूटर के लिए बुद्धि की डिग्री निर्धारित करना आवश्यक है, जो स्वीकार्य होने के साथ-साथ अत्यधिक, मनुष्यों के लिए खतरे का प्रतिनिधित्व करने में सक्षम है। निकटता के कारण इन गुणों को सटीक रूप से मापा जाना चाहिए मानसिक क्षमतामानव और कंप्यूटर, जो अपरिहार्य हैं। सूचना प्रणालियों, आज विद्यमान, मानव-मशीनें हैं जो उपयोगकर्ता या कंप्यूटर विशेषज्ञ की बुद्धिमत्ता की बदौलत काम कर सकती हैं।

उदाहरण के लिए, एक बुद्धिमान लेखा प्रणाली से क्या खतरा होगा जिसे गलत जानकारी दी जा सकती है? खतरा तब उत्पन्न हो सकता है जब ऐसी प्रणाली में व्यक्तित्व के तत्व हों, उदाहरण के लिए, स्वार्थ, जिसका मानव से कोई लेना-देना नहीं है। इस समस्या का समाधान उन प्रणालियों के निर्माण पर प्रतिबंध हो सकता है जो विकास की संभावना में भिन्न हैं।

इसके अलावा, खतरा एआई में तार्किक त्रुटियों की सामग्री से जुड़ा हो सकता है। इसका उपयोग जटिल समस्याओं को हल करने के लिए किया जा सकता है, जिनकी सूची तुरंत ज्ञात नहीं है। इसलिए, प्राप्त होने वाले निर्णय की शुद्धता की पुष्टि के लिए विशेष उपाय प्रदान किए जाने चाहिए। सबसे अधिक संभावना है, ऐसी प्रणालियों को नियंत्रित करने के लिए सभी प्रकार के तरीकों को विकसित करने की आवश्यकता होगी, उदाहरण के लिए, विशेष सॉफ़्टवेयर उपकरण जो मानव भागीदारी की आवश्यकता के बिना समाधान की शुद्धता की स्वचालित रूप से जांच करेंगे।

कृत्रिम बुद्धि का विकास एक दिन मानव मानसिक क्षमताओं पर अपनी श्रेष्ठता की ओर ले जाएगा। हालांकि, क्या यह मानवता के लिए खतरनाक नहीं होगा? तुलना के आधार के रूप में प्राकृतिक बुद्धि को लेते हुए एआई की अवधारणा की अधिक सटीक परिभाषा के परिणामस्वरूप स्थिति का अध्ययन करना संभव है। क्या मन और बुद्धि को एक ही समय में एक ही व्यक्ति में जोड़ा जा सकता है? या एक चतुर व्यक्ति बौद्धिक और इसके विपरीत नहीं हो सकता है?

एआई के आने वाले युग के संबंध में ऐसे प्रश्न उठते हैं, जिसके संभावित खतरे को मानवता को पहले से जानना चाहिए और इसकी सुरक्षा सुनिश्चित करने के लिए समय पर उपाय करना चाहिए। सबसे पहले, AI का खतरा उसकी स्वतंत्रता और अनियंत्रित निर्णय लेने से जुड़ा होगा। फिलहाल, इस समस्या का अध्ययन करने के लिए पहले ही धन आवंटित किया जा चुका है। OpenAI संस्थान AI के विकास की संभावनाओं का अध्ययन करता है। एआई सिस्टम के विकास के वर्तमान चरण में, इसके उपयोग का खतरा निम्नलिखित कारकों से जुड़ा हो सकता है:

  • सॉफ़्टवेयर (सॉफ़्टवेयर) त्रुटियाँ। इस तरह के खतरे से किसी भी सॉफ्टवेयर को खतरा हो सकता है;
  • एआई की स्वतंत्र गतिविधि, मनुष्यों के लिए हानिकारक। एआई से खतरा स्मार्ट कंप्यूटर के आविष्कार के बाद आ सकता है। इसलिए, कंप्यूटर के लिए बुद्धि की डिग्री निर्धारित करना आवश्यक है, जो स्वीकार्य होने के साथ-साथ अत्यधिक, मनुष्यों के लिए खतरे का प्रतिनिधित्व करने में सक्षम है। मानव और कंप्यूटर बुद्धि के अपरिहार्य अभिसरण के कारण इन गुणों को सटीक रूप से मापा जाना चाहिए। आज जो सूचना प्रणालियाँ मौजूद हैं, वे मानव-मशीनें हैं जो किसी उपयोगकर्ता या कंप्यूटर विशेषज्ञ की बुद्धिमत्ता की बदौलत काम कर सकती हैं।

उदाहरण के लिए, एक बुद्धिमान लेखा प्रणाली से क्या खतरा होगा जिसे गलत जानकारी दी जा सकती है? खतरा तब उत्पन्न हो सकता है जब ऐसी प्रणाली में व्यक्तित्व के तत्व हों, उदाहरण के लिए, स्वार्थ, जिसका मानव से कोई लेना-देना नहीं है। इस समस्या का समाधान उन प्रणालियों के निर्माण पर प्रतिबंध हो सकता है जो विकास की संभावना में भिन्न हैं।

इसके अलावा, खतरा एआई में तार्किक त्रुटियों की सामग्री से जुड़ा हो सकता है। इसका उपयोग जटिल समस्याओं को हल करने के लिए किया जा सकता है, जिनकी सूची तुरंत ज्ञात नहीं है। इसलिए, प्राप्त होने वाले निर्णय की शुद्धता की पुष्टि के लिए विशेष उपाय प्रदान किए जाने चाहिए। सबसे अधिक संभावना है, ऐसी प्रणालियों को नियंत्रित करने के लिए सभी प्रकार के तरीकों को विकसित करने की आवश्यकता होगी, उदाहरण के लिए, विशेष सॉफ़्टवेयर उपकरण जो मानव भागीदारी की आवश्यकता के बिना समाधान की शुद्धता की स्वचालित रूप से जांच करेंगे।