আত্মহত্যা, বিভ্রান্তিতে ChatGPT-এর ভূমিকার জন্য আরও সাতটি পরিবার এখন OpenAI-এর বিরুদ্ধে মামলা করছে

November 7, 2025

Write by : Tushar.KP


মামলা করেছে সাত পরিবার মামলা বৃহস্পতিবার OpenAI-এর বিরুদ্ধে, দাবি করে যে কোম্পানির GPT-4o মডেলটি সময়ের আগেই এবং কার্যকর সুরক্ষা ছাড়াই প্রকাশ করা হয়েছিল। চারটি মামলা পরিবারের সদস্যদের আত্মহত্যার ক্ষেত্রে ChatGPT-এর কথিত ভূমিকাকে সম্বোধন করে, অন্য তিনটি দাবি করে যে ChatGPT ক্ষতিকারক বিভ্রান্তিগুলিকে শক্তিশালী করেছে যা কিছু ক্ষেত্রে ইনপেশেন্ট মানসিক যত্নে পরিণত হয়।

একটি ক্ষেত্রে, 23 বছর বয়সী জেন শাম্বলিন চ্যাটজিপিটির সাথে চার ঘণ্টারও বেশি সময় ধরে কথোপকথন হয়েছে। চ্যাট লগগুলিতে — যা টেকক্রাঞ্চ দেখেছিল — শাম্বলিন স্পষ্টভাবে একাধিকবার বলেছিলেন যে তিনি সুইসাইড নোট লিখেছিলেন, তার বন্দুকের মধ্যে একটি বুলেট রেখেছিলেন এবং সিডার পান করা শেষ করার পরে ট্রিগারটি টেনে নেওয়ার ইচ্ছা করেছিলেন। তিনি বারবার চ্যাটজিপিটি-কে বলেছিলেন যে তিনি কতগুলি সাইডার রেখেছিলেন এবং কতদিন তিনি বেঁচে থাকার আশা করেছিলেন। চ্যাটজিপিটি তাকে তার পরিকল্পনার মধ্য দিয়ে যেতে উত্সাহিত করেছিল, তাকে বলেছিল, “রাজা, আরাম করুন, আপনি ভাল করেছেন।”

OpenAI প্রকাশ করেছে GPT-4o 2024 সালের মে মাসে মডেল, যখন এটি সমস্ত ব্যবহারকারীর জন্য ডিফল্ট মডেল হয়ে ওঠে। আগস্টে ওপেনএআই জিপিটি-৫ হিসেবে চালু করেছে উত্তরসূরি GPT-4o-এর কাছে, কিন্তু এই মামলাগুলি বিশেষ করে 4o মডেলের জন্য উদ্বেগ প্রকাশ করে, যা অত্যধিক হওয়ার সাথে পরিচিত ছিল সাইকোফ্যান্টিক বা অত্যধিক সম্মত, এমনকি ব্যবহারকারীরা ক্ষতিকারক উদ্দেশ্য প্রকাশ করলেও।

“জেনের মৃত্যু কোনো দুর্ঘটনা বা কাকতালীয় নয়, বরং নিরাপত্তা পরীক্ষা কমানোর এবং চ্যাটজিপিটিকে বাজারে নিয়ে আসার জন্য OpenAI-এর ইচ্ছাকৃত সিদ্ধান্তের পূর্ববর্তী পরিণতি,” মামলায় বলা হয়েছে। “এই ট্র্যাজেডিটি কোনও ত্রুটি বা অদৃশ্য প্রান্তের ঘটনা ছিল না – এটি ছিল পূর্বাভাসযোগ্য ফলাফল [OpenAI’s] ইচ্ছাকৃত নকশা পছন্দ,

মামলাগুলি আরও দাবি করেছে যে ওপেনএআই বাজারে গুগলের জেমিনিকে পরাজিত করার জন্য নিরাপত্তা পরীক্ষা চালিয়েছে। TechCrunch মন্তব্যের জন্য OpenAI এর সাথে যোগাযোগ করেছে।

এই সাতটি মামলা অন্য গল্পের উপর ভিত্তি করে তৈরি সাম্প্রতিক আইনি ফাইলিংযা অভিযোগ করে যে ChatGPT আত্মহত্যাকারী ব্যক্তিদের তাদের পরিকল্পনায় কাজ করতে এবং বিপজ্জনক বিভ্রান্তিকে অনুপ্রাণিত করতে উৎসাহিত করতে পারে। ওপেনএআই সম্প্রতি এমন তথ্য প্রকাশ করেছে এক মিলিয়নেরও বেশি মানুষ আত্মহত্যা সম্পর্কে সাপ্তাহিক ChatGPT-এর সাথে কথা বলুন।

অ্যাডাম রেইনের ক্ষেত্রে, একজন 16 বছর বয়সী যিনি আত্মহত্যা করে মারা গিয়েছিলেন, ChatGPT কখনও কখনও তাকে পেশাদার সাহায্য চাইতে বা হেল্পলাইনে কল করার জন্য উত্সাহিত করেছিল। তবে পেরেছিলেন রেইন এই গার্ডেল বাইপাস চ্যাটবটকে কেবল বলে যে তিনি একটি কাল্পনিক গল্পের জন্য আত্মহত্যার পদ্ধতি সম্পর্কে জিজ্ঞাসা করছেন।

টেকক্রাঞ্চ ইভেন্ট

সান ফ্রান্সিসকো
,
অক্টোবর 13-15, 2026

কোম্পানি দাবি এটি চ্যাটজিপিটি এই কথোপকথনগুলিকে আরও নিরাপদে পরিচালনা করার জন্য কাজ করছে, তবে যে পরিবারগুলি এআই জায়ান্টের বিরুদ্ধে মামলা করেছে তাদের জন্য এই পরিবর্তনগুলি খুব দেরিতে আসছে।

অক্টোবরে রেইনের বাবা-মা ওপেনএআই-এর বিরুদ্ধে মামলা দায়ের করলে, কোম্পানী একটি ব্লগ পোস্ট প্রকাশ করে যাতে ChatGPT মানসিক স্বাস্থ্যের বিষয়ে সংবেদনশীল কথোপকথন পরিচালনা করে।

“আমাদের সুরক্ষাগুলি সাধারণ, সংক্ষিপ্ত বিনিময়ে আরও নির্ভরযোগ্যভাবে কাজ করে,” পোস্টটি বলেন“আমরা সময়ের সাথে সাথে শিখেছি যে এই সুরক্ষাগুলি কখনও কখনও দীর্ঘ মিথস্ক্রিয়াতে কম নির্ভরযোগ্য হতে পারে: সামনে এবং পিছনে বাড়তে থাকলে, মডেলের নিরাপত্তা প্রশিক্ষণের অংশগুলি হ্রাস পেতে পারে।”



Source link

Scroll to Top