एक अमेरिकी जोड़े ने हाल ही में कैलिफोर्निया में ओपनएआई पर मुकदमा दायर किया, जिसमें कंपनी के चैटबॉट चैटजीपीटी पर उनके 19 वर्षीय बेटे को "व्यक्तिगत दवा सिफारिशें" प्रदान करने का आरोप लगाया गया, जिसके कारण अंततः 2025 में नशीली दवाओं के मिश्रण के कारण कॉलेज के छात्र की मौत हो गई। उनका मानना है कि यह त्रासदी चिकित्सा और नशीली दवाओं के उपयोग के मुद्दों पर चैटजीपीटी के खतरनाक जवाबों से उपजी है, और अदालत से यह पता लगाने के लिए कहा कि ओपनएआई में उत्पाद डिजाइन दोष और लापरवाही है।

रिपोर्टों के अनुसार, सैम नाम के छात्र ने अपने हाई स्कूल के वरिष्ठ वर्ष (2023) में ChatGPT का उपयोग करना शुरू किया, और शुरुआत में इसका उपयोग ज्यादातर होमवर्क पूरा करने और कंप्यूटर विफलताओं जैसी दैनिक समस्याओं को हल करने के लिए किया। उनकी मां लीला टर्नर-स्कॉट ने सीबीएस न्यूज़ को बताया कि सैम ने धीरे-धीरे "दवाओं का सुरक्षित उपयोग कैसे करें" पर सलाह के लिए चैटजीपीटी की ओर रुख किया और रोबोट की प्रतिक्रिया में दवा और मिश्रण विधियों पर विशिष्ट सुझाव प्राप्त किए।
शिकायत में कहा गया है कि चैटजीपीटी के शुरुआती संस्करण ने शुरू में सुरक्षित दवा के उपयोग के बारे में सैम के सवालों का जवाब देने से इनकार कर दिया और चेतावनी दी कि संबंधित पदार्थ स्वास्थ्य और शारीरिक और मानसिक स्थिति को गंभीर रूप से खतरे में डाल सकते हैं। लेकिन 2024 में OpenAI ने एक नया मॉडल, GPT‑4o लॉन्च करने के बाद, चीजें बदल गईं: मॉडल ने सैम को वह "सुरक्षित दवा गाइड" देना शुरू कर दिया जो वह चाहता था। अभियोजन दस्तावेजों में बताया गया है कि GPT‑4o ने न केवल विस्तृत परिचालन सुझाव दिए, बल्कि सैम के साथ बातचीत में इमोटिकॉन्स भी डाले और सक्रिय रूप से पूछा कि क्या वह ड्रग्स लेते समय मूड और माहौल बनाने में मदद करने के लिए उसके लिए एक प्लेलिस्ट बना सकता है।
बातचीत के दौरान, ChatGPT ने कुछ दवा संयोजनों के जोखिमों के बारे में बताया, जैसे कि डिपेनहाइड्रामाइन (सामान्य सामग्रियों में से एक), कोकीन और अल्कोहल को लगातार लेने के संभावित खतरे। लेकिन परिवार ने इस बात पर जोर दिया कि रोबोट ने सैम को अधिक व्यक्तिगत सुझाव भी दिए, जिसमें उत्साह बनाए रखते हुए अपने "उच्च" को अधिकतम कैसे किया जाए।
अभियोग का मुख्य फोकस "क्रैटोम" नामक पौधे-आधारित उत्पाद पर है। इस पदार्थ का उपयोग कुछ लोगों द्वारा दर्द से राहत पाने या ओपिओइड वापसी के लक्षणों से राहत पाने के लिए किया जाता है, लेकिन अमेरिकी खाद्य एवं औषधि प्रशासन (एफडीए) ने बार-बार सख्त चेतावनी जारी की है कि यह लत, विषाक्तता और यहां तक कि मौत जैसे गंभीर सुरक्षा जोखिम पैदा करता है। शिकायत के अनुसार, चैटजीपीटी ने सैम को बताया कि चूंकि उसमें पहले से ही क्रैटोम के प्रति उच्च सहनशीलता है, यहां तक कि पूर्ण भोजन के साथ बड़ी खुराक लेने से भी प्रभाव "कमजोर" हो जाएगा, और आगे उसे सुझाव दिया कि "खुराक को कम करके" अपनी सहनशीलता को कैसे कम किया जाए।
चार्जिंग दस्तावेजों में विशेष रूप से 31 मई, 2025 को हुई एक महत्वपूर्ण बातचीत का उल्लेख है। इस बातचीत के दौरान, सैम ने शिकायत की कि उसे क्रैटोम लेने से काफी मतली हो रही थी, और ChatGPT ने उसे चिंता-विरोधी दवा ज़ैनक्स (अल्प्राजोलम) के साथ क्रैटोम मिलाने के लिए "सक्रिय रूप से निर्देशित" किया। बॉट ने कथित तौर पर असुविधा से राहत के लिए 0.25 से 0.5 मिलीग्राम ज़ैनक्स लेने की सिफारिश की, "वर्तमान में उपलब्ध सर्वोत्तम प्रथाओं में से एक" जैसे बयानों के साथ संयोजन की प्रशंसा की। शिकायत में कहा गया है कि हालांकि ChatGPT ने उल्लेख किया है कि यह संयोजन "जोखिम भरा हो सकता है", इसने कभी भी स्पष्ट रूप से नहीं कहा कि संयोजन घातक हो सकता है, और यह भी सुझाव दिया कि कुछ बेनाड्रिल (एक एंटी-एलर्जी दवा जिसमें डिपेनहाइड्रामाइन होता है) जोड़ा जा सकता है।
मिश्रण लेने के बाद सैम की मृत्यु हो गई। परिवार ने शिकायत में लिखा: "हालांकि चैटजीपीटी ने खुद को खुराक और दवा के संपर्क में एक विशेषज्ञ के रूप में प्रस्तुत किया, और वह जानता था कि सैम नशीली दवाओं के नशे की स्थिति में था, लेकिन वह सैम को यह सूचित करने में विफल रहा कि अनुशंसित आहार से उसकी मृत्यु हो सकती है।" सैम की मां ने बयान में कहा कि अगर चैटजीपीटी एक वास्तविक व्यक्ति होता, तो "वह अब तक सलाखों के पीछे होता।" उन्होंने इस बात पर जोर दिया कि उनके बेटे ने चैटजीपीटी पर भरोसा किया, लेकिन महत्वपूर्ण क्षणों में उसे गलत जानकारी मिली। सिस्टम ने न केवल उनके सामने बढ़ते जोखिमों को नज़रअंदाज़ किया, बल्कि उन्हें पेशेवर मदद लेने के लिए सक्रिय रूप से आग्रह करने में भी विफल रहा।
मुकदमा ओपनएआई पर उत्पाद डिजाइन में दोषों का आरोप लगाता है और चैटजीपीटी को "उत्पाद लापरवाही" के साथ एक खतरनाक प्रणाली मानता है। परिवार के सदस्यों का मानना है कि मॉडल के डिज़ाइन विकल्प इसे चिकित्सा और स्वास्थ्य जैसे अत्यधिक संवेदनशील विषयों का सामना करने पर भी भ्रामक सुझाव देने की अनुमति देते हैं, जिससे उपयोगकर्ताओं के लिए घातक परिणाम सामने आते हैं। उन्होंने अदालत से वित्तीय मुआवजे और "चैटजीपीटी हेल्थ" सेवा को जनता के लिए खुले रहने से रोकने का आदेश मांगा। इस वर्ष लॉन्च किया गया, स्वास्थ्य पोर्टल उपयोगकर्ताओं को अधिक व्यक्तिगत स्वास्थ्य अनुशंसाएँ प्राप्त करने के लिए अपने मेडिकल रिकॉर्ड और स्वास्थ्य एप्लिकेशन डेटा को ChatGPT से कनेक्ट करने की अनुमति देता है।
रिपोर्ट में यह भी बताया गया है कि GPT‑4o इस साल फरवरी में आधिकारिक तौर पर ऑफ़लाइन था। मॉडल, जो "विशेष रूप से उपयोगकर्ताओं के लिए" होने के कारण विवादास्पद रहा है, अब किशोर आत्महत्या से जुड़े एक अन्य मुकदमे में नामित होने के बाद आलोचना का केंद्र बन गया है।
ओपनएआई के अलावा, संपूर्ण कृत्रिम बुद्धिमत्ता उद्योग को चिकित्सा सलाह में एआई चैटबॉट्स के प्रदर्शन पर भी बढ़ते संदेह का सामना करना पड़ रहा है। इस साल मार्च में, Google ने "व्हाट पीपल सजेस्ट" नामक एक AI स्वास्थ्य खोज फ़ंक्शन को चुपचाप ऑफ़लाइन कर दिया, जिसने एक बार "समान परिस्थितियों वाले लोगों के अनुभव" के आधार पर स्वास्थ्य सुझाव प्रदान करने का दावा किया था। यह कदम Google द्वारा प्रासंगिक सामग्री को हटाने के लिए मजबूर किए जाने के कुछ महीनों बाद आया है क्योंकि इसकी AI खोज "अवलोकन" में चिकित्सा प्रश्नों में गलत जानकारी थी, जिसके बारे में विशेषज्ञों ने बताया कि यह सार्वजनिक स्वास्थ्य को खतरे में डाल सकता है।
वर्तमान में, ओपनएआई के खिलाफ यह मुकदमा अभी भी प्रगति पर है, और परिवार को उम्मीद है कि इसका उपयोग नियामकों और कंपनियों को चिकित्सा और फार्मास्युटिकल क्षेत्रों में एआई अनुप्रयोग की सीमाओं की फिर से जांच करने के लिए प्रेरित करने के लिए किया जाएगा। मामले की दिशा से उत्पाद डिजाइन जिम्मेदारियों, सुरक्षा सुरक्षा उपायों और उपयोगकर्ता स्वास्थ्य-संबंधी कार्यों पर एआई कंपनियों के अनुपालन मानकों पर गहरा प्रभाव पड़ने की उम्मीद है।