गेल्या वर्षी नोव्हेंबरमध्ये ChatGPT च्या पदार्पणापासून जनरेटिव्ह AI लँडस्केप वेगाने विकसित होत आहे. नियामक आणि तज्ञांच्या वाढत्या चिंता असूनही, अनेक नवीन चॅटबॉट्स आणि टूल्स वर्धित क्षमता आणि वैशिष्ट्यांसह उदयास आले आहेत. तथापि, या चॅटबॉट्समुळे जागतिक सुरक्षा आणि स्थैर्यासाठी नवीन धोका निर्माण होऊ शकतो.
अँथ्रोपिकचे सीईओ दारिओ अमोदेई यांनी चेतावणी दिली की एआय प्रणाली पुढील दोन ते तीन वर्षांत गुन्हेगारांना बायोवेपन्स आणि इतर धोकादायक शस्त्रे तयार करण्यास सक्षम करू शकतात. ओपनएआयच्या माजी कर्मचार्यांनी स्थापन केलेली अँथ्रोपिक ही कंपनी अलीकडेच चॅटजीपीटी प्रतिस्पर्धी क्लॉडच्या प्रकाशनाने प्रसिद्धीच्या झोतात आली.
स्टार्टअपने भविष्यातील शस्त्रास्त्रीकरणासाठी मोठ्या भाषेच्या मॉडेल्सच्या संभाव्यतेचा शोध घेण्यासाठी जैवसुरक्षा तज्ञांशी सल्लामसलत केली आहे.
गुरुवारी झालेल्या सुनावणीच्या वेळी, अमोदेईने यूएस सिनेट तंत्रज्ञान उपसमितीसमोर साक्ष दिली की सायबर सुरक्षा, अणु तंत्रज्ञान, रसायनशास्त्र आणि जीवशास्त्र यासारख्या क्षेत्रांमध्ये दुर्भावनापूर्ण हेतूंसाठी एआय चॅटबॉट्सच्या वापरास सामोरे जाण्यासाठी नियमनाची नितांत आवश्यकता आहे.
“आपण जे काही करतो ते लवकर व्हायला हवे. आणि मला वाटते की लोकांचे मन बायोरिस्कवर केंद्रित करण्यासाठी, मी खरोखरच 2025, 2026, कदाचित 2024 च्या काही संधींना लक्ष्य करेन. जर आमच्याकडे अशा गोष्टी नसतील ज्या AI प्रणालींद्वारे काय करता येईल यावर प्रतिबंध घालत असतील तर आम्ही पुढे जात आहोत. खरोखर वाईट वेळ आहे,” त्याने मंगळवारी सुनावणीच्या वेळी साक्ष दिली.
एआय कंपनीने ते स्वत: तयार करत असलेल्या उत्पादनाचे धोके कबूल करण्याची आणि नियमनाची मागणी करण्याची ही पहिलीच वेळ नाही. उदाहरणार्थ, ChatGPT च्या मागे असलेल्या OpenAI चे प्रमुख सॅम ऑल्टमन यांनी जूनमध्ये दक्षिण कोरियाच्या भेटीदरम्यान जनरेटिव्ह AI वरील आंतरराष्ट्रीय नियमांची मागणी केली.
सिनेटर्सना दिलेल्या साक्षीत, अमोदेई म्हणाले की Google आणि पाठ्यपुस्तकांमध्ये केवळ हानी निर्माण करण्यासाठी आंशिक माहिती आहे, ज्यासाठी खूप तज्ञांची आवश्यकता आहे. परंतु त्याची कंपनी आणि सहयोगींना असे आढळून आले आहे की सध्याच्या AI सिस्टीम यापैकी काही अंतर भरून काढण्यात मदत करू शकतात.
“आम्ही आणि आमच्या सहकार्यांनी अभ्यास केलेला प्रश्न हा आहे की सध्याच्या AI प्रणाली या उत्पादन प्रक्रियेतील काही कठीण टप्पे भरण्यास सक्षम आहेत का. आम्हाला आढळले की आजच्या AI प्रणाली यापैकी काही पायऱ्या भरू शकतात – परंतु अपूर्ण आणि अविश्वसनीयपणे. ते धोक्याची पहिली, नवजात चिन्हे दाखवत आहेत.
त्यांनी चेतावणी दिली की जर योग्य रेलिंग लावले नाहीत तर एआय सिस्टम त्या गहाळ अंतर पूर्णपणे भरण्यास सक्षम असतील.
“तथापि, दोन ते तीन वर्षात ज्यांना आपण पाहण्याची अपेक्षा करतो त्यांच्यासाठी आजच्या सिस्टीमचे सरळ सरळ एक्स्ट्रापोलेशन हे एक मोठा धोका सूचित करते की AI सिस्टीम सर्व गहाळ तुकडे भरण्यात सक्षम होतील, जर योग्य रेलिंग आणि कमी केले नाहीत तर. यामुळे मोठ्या प्रमाणावर जैविक हल्ला करण्याची तांत्रिक क्षमता असलेल्या अभिनेत्यांची श्रेणी मोठ्या प्रमाणात वाढू शकते.”
AI वापरून बायोवेपन्स तयार करण्यासाठी अमोदेईची टाइमलाइन थोडी अतिशयोक्तीपूर्ण असू शकते, परंतु त्याच्या चिंता निराधार नाहीत. अणुबॉम्ब सारख्या मोठ्या प्रमाणावर विनाश करणारी शस्त्रे तयार करण्यासाठी सखोल माहिती सामान्यतः वर्गीकृत दस्तऐवजांमध्ये आणि अत्यंत विशेष तज्ञांकडे असते परंतु AI ही माहिती अधिक व्यापकपणे उपलब्ध आणि प्रवेशयोग्य बनवू शकते.
संशोधकांनी एआय चॅटबॉट्समधून हानिकारक माहिती काढण्यासाठी नेमक्या कोणत्या पद्धती वापरल्या हे स्पष्ट नाही. ChatGPT, Google Bard आणि Bing चॅट सारखे चॅटबॉट्स सहसा पाईप बॉम्ब किंवा नेपलम कसे बनवायचे यासारख्या हानिकारक माहितीच्या प्रश्नांची उत्तरे देणे टाळतात.
तथापि, पिट्सबर्गमधील कार्नेगी मेलॉन युनिव्हर्सिटी आणि सॅन फ्रान्सिस्कोमधील एआय सेफ्टी सेंटरच्या संशोधकांनी अलीकडेच शोधून काढले की लोकप्रिय आणि बंद AI सिस्टमसाठी जेलब्रेक विकसित करण्यासाठी ओपन-सोर्स सिस्टमचा वापर केला जाऊ शकतो. प्रॉम्प्टच्या शेवटी काही वर्ण जोडून, ते सुरक्षितता नियमांना बायपास करू शकतात आणि हानिकारक सामग्री, द्वेषयुक्त भाषण किंवा दिशाभूल करणारी माहिती तयार करण्यासाठी चॅटबॉट्सला प्रवृत्त करू शकतात. हे रेलिंग पूर्णपणे निर्दोष नसल्याकडे निर्देश करते.
शिवाय, हे धोके मुक्त-स्रोत मोठ्या भाषा मॉडेल्सच्या वाढत्या सामर्थ्याने वाढवले आहेत. दुर्भावनापूर्ण हेतूंसाठी वापरल्या जाणार्या एआय सिस्टमचे उदाहरण म्हणजे फ्रॉडजीपीटी, क्रॅकिंग टूल्स, फिशिंग ईमेल आणि इतर गुन्हे तयार करण्याच्या क्षमतेसाठी गडद वेबमध्ये बझ बनवणारा बॉट.