‘কিলার রোবট’ থেকে বাঁচতে জাতিসংঘের হস্তক্ষেপ চাইলেন রোবোটিক্স বিশেষজ্ঞরা

প্রকাশঃ আগস্ট ২৩, ২০১৭

বিডিমর্নিং ডেস্ক-

অনেক রোবটিক্স বিশেষজ্ঞ বলছেন ‘কৃত্তিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ’ । সম্প্রতি কৃত্তিম বুদ্ধিমত্তায় তৈরি ‘কিলার রোবট’ নিয়ে জরুরি সিদ্ধান্ত গ্রহণের জন্য জাতিসংঘের হস্তক্ষেপ চাইলেন নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞরা। অনেক আগেই বিজ্ঞানী স্টিফেন হকিং কৃত্তিম বুদ্ধিমত্তায় বিনোয়োগ না করার জন্য তার মন্তব্য একটি প্রতিবেদনের মতো করে প্রকাশ করেন।

তিনি তখন বলেছিলেন, কৃত্তিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ।’

কিলার রোবট বা অস্ত্র পরিচালনাকারী রোবট নিয়ে সংশয় প্রকাশ করেছেন প্রায় শতাধিক নেতৃস্থানীয় রোবোটিক্স বিশেষজ্ঞ।

সম্মিলিতভাবে তারা কিলার রোবট উন্নয়নের কার্যক্রমের বিরুদ্ধে জাতিসংঘের কাছে ব্যবস্থা গ্রহণের আহ্বান জানিয়েছেন। এমন খবর নিশ্চিত করেন আন্তর্জাতিক নিউজ মাধ্যম বিবিসি।

বিবিসি’র প্রতিবেদনে বলা হয়, মার্কিন প্রতিষ্ঠান টেসলা’র প্রধান নির্বাহী কর্মকর্তা ইলোন মাস্কসহ ১১৬ জন বিশেষজ্ঞ ‘কিলার রোবট’ এর উন্নয়ন কার্যক্রম বন্ধে পদক্ষেপ নিতে জাতিসংঘের কাছে চিঠি দিয়েছেন। অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হওয়ার আহবান জানান তারা।

তারা আশংকা প্রকাশ করেছেন, এমন রোবট তৈরি ও উন্নয়ন হতে থাকলে  ‘তৃতীয় বিশ্বযুদ্ধ সংঘটিত হতে পারে।

তারা বলছেন, ‘কিলার রোবট’ সন্ত্রাসের অস্ত্র হবে। এসব অস্ত্র অত্যাচারী শাসক বা সন্ত্রাসী গোষ্ঠী নিরীহ মানুষের ওপর ব্যবহার করতে পারে। এসব অস্ত্র অনাকাঙ্ক্ষিত উপায়ে ব্যবহার হওয়ার সম্ভাবনাই বেশি।

কিলার রোবট হচ্ছে এমন এক রোবট যা সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র এবং মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে। আবার লক্ষ্যবস্তুতে হামলা চালাতেও পারে। এ ধরনের প্রযুক্তি এখনো পুরোপুরি তৈরি হয়নি তবে তা তৈরিতে যথেষ্ট অগ্রগতি হয়েছে।

উল্লেখ্য, ২০১৫ সালে প্রায় এক হাজারের বেশি প্রযুক্তি বিশেষজ্ঞ, বিজ্ঞানী ও গবেষক স্বচালিত অস্ত্রের ঝুঁকি বিষয়ে সতর্ক করে একটি চিঠি লিখেছিলেন। এ চিঠিতে স্বাক্ষরকারীদের মধ্যে ছিলেন বিজ্ঞানী স্টিফেন হকিং, অ্যাপলের সহপ্রতিষ্ঠাতা স্টিভ ওজনিয়াক এবং টেসলার প্রধান এলোন মাস্ক।

Advertisement

কমেন্টস