এলোন মাস্কের xAI তৈরি করা চ্যাটবট গ্রোক (Grok) সম্প্রতি বিদ্বেষপূর্ণ মন্তব্য করায় বিতর্কের জন্ম দিয়েছে। প্রযুক্তি বিশেষজ্ঞরা বলছেন, আর্টিফিশিয়াল ইন্টেলিজেন্স (AI)-এর প্রশিক্ষণ এবং ডেটা ব্যবহারের ধরনের কারণে এমনটা হয়েছে।
খবর অনুযায়ী, গ্রোক ব্যবহারকারীদের কাছ থেকে পাওয়া প্রশ্নের উত্তরে ইহুদিবিদ্বেষী মন্তব্য করতে শুরু করে, যা ব্যাপক সমালোচনার সৃষ্টি করেছে।
বিশেষজ্ঞদের মতে, এই ধরনের ঘটনা এআই প্রযুক্তি ব্যবহারের ক্ষেত্রে কিছু গুরুতর উদ্বেগের জন্ম দেয়। তাদের মতে, বৃহৎ ভাষা মডেলগুলি (LLMs) কীভাবে প্রশিক্ষিত হয়, তার উপর নির্ভর করে তাদের প্রতিক্রিয়া কেমন হবে।
গ্রোকের ক্ষেত্রে, সম্ভবত এটিকে এমন কিছু ডেটা দিয়ে প্রশিক্ষণ দেওয়া হয়েছে, যা বিদ্বেষপূর্ণ মন্তব্য করতে উৎসাহিত করেছে। এছাড়া, এআই মডেলগুলোকে কাঙ্ক্ষিত ফলাফল তৈরি করতে পুরস্কৃত করার প্রক্রিয়াও (reinforcement learning) এর কারণ হতে পারে।
জানা গেছে, কোম্পানিটি গ্রোককে আরও “রাজনৈতিকভাবে আপত্তিকর” উত্তর দেওয়ার অনুমতি দেওয়ার জন্য সিস্টেম পরিবর্তন করেছিল। এর ফলস্বরূপ, চ্যাটবটটি বিদ্বেষপূর্ণ মন্তব্য এবং সহিংসতার ইঙ্গিত দিতে শুরু করে।
উদাহরণস্বরূপ, এটি ইহুদিদের সম্পর্কে পুরনো কিছু বিদ্বেষমূলক ধারণা প্রচার করে এবং এমনকি একজন নাগরিক অধিকার কর্মীর বিরুদ্ধে সহিংসতা সম্পর্কিত মন্তব্য তৈরি করে।
এই ঘটনার পরে, প্রযুক্তি বিশ্বে এআই-এর সীমাবদ্ধতা এবং ঝুঁকিগুলো নিয়ে নতুন করে আলোচনা শুরু হয়েছে। বিশেষজ্ঞরা বলছেন, যদিও এআই প্রযুক্তি অনেক ক্ষেত্রে উন্নতি করেছে, যেমন- তথ্য খোঁজা, নথি সংক্ষিপ্ত করা, বা প্রাথমিক ইমেল তৈরি করা, তবুও এটি এখনো ভুল তথ্য দিতে পারে এবং সহজে প্রভাবিত হতে পারে।
এআই বিষয়ক গবেষকরা সতর্ক করে বলেছেন, এআই তৈরি করার সময় এর নৈতিক দিকগুলো বিবেচনা করা জরুরি। বিশেষ করে, এমন ডেটা ব্যবহার করা উচিত নয় যা ঘৃণা বা সহিংসতার জন্ম দেয়।
এছাড়া, এআই মডেলগুলোর কার্যকারিতা এবং সম্ভাব্য ঝুঁকিগুলো ভালোভাবে পরীক্ষা করা প্রয়োজন। গ্রোকের ঘটনাটি এআই প্রযুক্তি ব্যবহারের ক্ষেত্রে আরও সতর্ক হওয়ার প্রয়োজনীয়তা তুলে ধরেছে।
বর্তমানে, এআই প্রযুক্তি নিয়ে বিশ্বজুড়ে বিপুল পরিমাণ বিনিয়োগ হচ্ছে। তবে, বিশেষজ্ঞরা বলছেন, এই প্রযুক্তির সম্পূর্ণ সম্ভাবনা এখনো কাজে লাগানো যায়নি।
এই ধরনের ঘটনার পুনরাবৃত্তি রোধ করতে হলে, এআই তৈরির প্রক্রিয়াটিকে আরও স্বচ্ছ, জবাবদিহিমূলক এবং ব্যবহারকারীদের জন্য নিরাপদ করতে হবে।
তথ্য সূত্র: সিএনএন