
মাইলস ব্রুন্ডেজ, ওপেনএআই-এর AGI প্রস্তুতির জন্য সিনিয়র উপদেষ্টা পদত্যাগ করেছেন, সতর্ক করে দিয়েছেন যে যা আসছে তার জন্য কেউ প্রস্তুত নয়।
Brundage Substack সরানো হয়েছে তার সিদ্ধান্ত ব্যাখ্যা করুন তিনি যাকে তার “স্বপ্নের কাজ” হিসাবে বর্ণনা করেছিলেন তা ছেড়ে দেওয়া। সামগ্রিকভাবে, Brundage ওপেনএআই-এ কাটানো তার সময়ের প্রশংসা করেছেন, বলেছেন যে তিনি যে গবেষণাটি করতে চান তা পরিচালনা করার জন্য তিনি এটি ছেড়ে দিতে চেয়েছিলেন।
সুযোগের খরচ অনেক বেশি হয়ে গেছে: আমার কাছে গুরুত্বপূর্ণ মনে হয় এমন বিভিন্ন গবেষণার বিষয় নিয়ে কাজ করার সময় নেই, এবং কিছু ক্ষেত্রে আমি মনে করি সেগুলি যদি শিল্পের বাইরে কাজ করতাম তাহলে সেগুলি আরও প্রভাবশালী হত৷ ওপেনএআই এখন এত হাই-প্রোফাইল, এবং এর আউটপুট বিভিন্ন কোণ থেকে পর্যালোচনা করা হয়, যে আমার জন্য গুরুত্বপূর্ণ সমস্ত বিষয়ে প্রকাশ করা আমার পক্ষে কঠিন। স্পষ্ট করে বলতে গেলে, আমি বলব না যে আমি প্রকাশনা পর্যালোচনার বিষয়ে ওপেনএআই-এর অবস্থানের সাথে সর্বদা একমত, আমি মনে করি শিল্পে কিছু প্রকাশনা বাধা থাকা যুক্তিসঙ্গত (এবং আমি ওপেনএআই-এর নীতিগুলির একাধিক পুনরাবৃত্তি লিখতে সাহায্য করেছি), কিন্তু বাধাগুলি আমার জন্য খুব মহান হয়ে উঠেছে.
ব্রুন্ডেজ আরও বলেছেন যে তিনি তার গবেষণায় কম পক্ষপাতদুষ্ট হতে চান, এমন কিছু যা একটি বড় এআই ফার্মের জন্য কাজ করার সময় করা কঠিন।
আমি কম পক্ষপাতদুষ্ট হতে চাই: যখন আপনি এটির অংশ হন এবং প্রতিদিন সেখানে লোকেদের সাথে ঘনিষ্ঠভাবে কাজ করেন এবং শিল্প থেকে আসা নীতি ধারণাগুলির সাথে আর্থিক দ্বন্দ্বের কারণে নিরপেক্ষ হওয়া কঠিন প্রশ্ন তোলা ঠিক। আমি আমার বিশ্লেষণে যতটা সম্ভব নিরপেক্ষ হওয়ার চেষ্টা করেছি, কিন্তু আমি নিশ্চিত যে কিছু পক্ষপাত রয়েছে, এবং অবশ্যই OpenAI-তে কর্মরত লোকেরা আমার বক্তব্যের পাশাপাশি শিল্পের অন্যদের বক্তব্যকে প্রভাবিত করে। আমি মনে করি আজকের তুলনায় নীতি কথোপকথনে আরও বেশি শিল্প-স্বাধীন কণ্ঠস্বর থাকা গুরুত্বপূর্ণ, এবং আমি তাদের একজন হওয়ার পরিকল্পনা করছি।
Brundage এর পোস্টের সবচেয়ে আকর্ষণীয় অংশটি AGI (কৃত্রিম সাধারণ বুদ্ধিমত্তা) সম্পর্কে তার দৃষ্টিভঙ্গি এবং OpenAI এবং শিল্প এর জন্য প্রস্তুত কিনা তা জড়িত।
সংক্ষেপে, OpenAI বা অন্য কোন ফ্রন্টিয়ার ল্যাব প্রস্তুত নয়, এবং বিশ্বও প্রস্তুত নয়।
স্পষ্ট করে বলতে গেলে, আমি মনে করি না এটি OpenAI এর নেতৃত্বের মধ্যে একটি বিতর্কিত বিবৃতি, এবং বিশেষ করে, এটি একটি ভিন্ন প্রশ্ন যে কোম্পানি এবং বিশ্ব প্রাসঙ্গিক সময়ে প্রস্তুত হওয়ার পথে রয়েছে কিনা (যদিও আমি মনে করি যে এখনও কিছু ত্রুটি বাকি আছে) যথেষ্ট যে আমি আমার ক্যারিয়ারের বাকি সময় AI নীতিতে কাজ করব)।
কোম্পানী এবং বিশ্ব AGI-এর জন্য প্রস্তুতির পথে রয়েছে কিনা তা একটি জটিল কাজ যে কীভাবে নিরাপত্তা ও নিরাপত্তা সংস্কৃতি সময়ের সাথে সাথে কাজ করে (যার জন্য বোর্ড জুড়ে সাম্প্রতিক সংযোজনগুলি সঠিক দিকের পদক্ষেপ), কীভাবে প্রবিধান সাংগঠনিক প্রণোদনাকে আকৃতি দেয়, প্রভাবিত করে , কিভাবে বিভিন্ন এআই ক্ষমতা এবং নিরাপত্তার অসুবিধা, এবং অন্যান্য বিভিন্ন কারণ সম্পর্কে তথ্য।
এজিআই রেডিনেস টিম ভেঙে যাচ্ছে
Brundage এর পোস্টের উপর ভিত্তি করে, এটা মনে হচ্ছে AGI রেডিনেস টিম মূলত বিচ্ছিন্ন হয়ে যাচ্ছে।
অর্থনৈতিক গবেষণা দল, যেটি সম্প্রতি পর্যন্ত পামেলা মিশকিনের নেতৃত্বে AGI রেডিনেসের একটি সাব-টিম ছিল, OpenAI-এর নতুন প্রধান অর্থনীতিবিদ রনি চ্যাটার্জির অধীনে কাজ করবে৷ AGI রেডিনেস টিমের বাকি অংশ অন্যান্য দলের মধ্যে বিতরণ করা হবে, এবং আমি জোশ আচিয়ামের সাথে ঘনিষ্ঠভাবে কাজ করছি কিছু প্রকল্প তিনি যে মিশন অ্যালাইনমেন্ট টিম তৈরি করছেন তার কাছে নিয়ে যেতে।
তাদের মূল্যায়নের পরিপ্রেক্ষিতে যে কেউ এজিআই-এর উত্থানের জন্য প্রস্তুত নয়, দলের বিলুপ্তি একটি বিশেষভাবে উদ্বেগজনক উদ্ঘাটন।
OpenAI চলমান সমস্যা
Brundage এর প্রস্থান নির্বাহী এবং গবেষকদের তালিকায় যোগ করে যারা OpenAI ত্যাগ করেছে। যেহেতু গত বছর একটি বোর্ডরুম অভ্যুত্থান স্যাম অল্টম্যানের অস্থায়ী প্রস্থানের দিকে পরিচালিত করেছিল, কোম্পানির সর্বোচ্চ প্রোফাইল কর্মী কিছু অল্টম্যানের ফিরে আসার পরে কোম্পানি ছেড়ে চলে গেছে।
মজার বিষয় হল, প্রাক্তন CTO মীরা মুরাতি এবং সহ-প্রতিষ্ঠাতা ইলিয়া সুটস্কেভার সহ – কিছু বড় প্রস্থান – অল্টম্যানের নেতৃত্বের অভিযোগ এবং উদ্বেগের মধ্যে এসেছে যে ওপেনএআই নিরাপদ এআই বিকাশে তার মনোযোগ হারিয়েছে। জ্যান লেইক, AI থেকে অস্তিত্বগত হুমকি নিয়ে গবেষণা করার জন্য দায়ী দলের সহ-প্রধানদের একজন, যখন তার দল ভেঙ্গে যায় তখন কোম্পানি ছেড়ে যায়। ব্রান্ডেজের বিপরীতে, তিনি ওপেনএআই-এর নিরাপত্তা সংস্কৃতির তীব্র সমালোচনা করেছিলেন।
যাইহোক, আমি বেশ কিছুদিন ধরে কোম্পানির মূল অগ্রাধিকার সম্পর্কে OpenAI নেতৃত্বের সাথে দ্বিমত পোষণ করছি, যতক্ষণ না আমরা শেষ পর্যন্ত একটি ব্রেকিং পয়েন্টে পৌঁছেছি।
আমি বিশ্বাস করি আমাদের আরও বেশি ব্যান্ডউইথ খরচ হয়েছে পরবর্তী প্রজন্মের মডেলের জন্য নিরাপত্তা, নজরদারি, প্রস্তুতি, সুরক্ষা, প্রতিকূল দৃঢ়তা, (সুপার) প্রান্তিককরণ, গোপনীয়তা, সামাজিক প্রভাব এবং সম্পর্কিত বিষয়গুলিতে।
এই সমস্যাগুলি ঠিক করা যথেষ্ট কঠিন, এবং আমি উদ্বিগ্ন যে আমরা সেখানে পৌঁছানোর পথে নেই।
গত কয়েক মাস ধরে আমার দল বাতাসের বিপরীতে পালাচ্ছে। মাঝে মাঝে আমরা গণনার সাথে লড়াই করছিলাম এবং এই গুরুত্বপূর্ণ গবেষণাটি সম্পূর্ণ করা কঠিন হয়ে উঠছিল।
মানুষের চেয়ে বুদ্ধিমান মেশিন তৈরি করা সহজাতভাবে একটি বিপজ্জনক প্রচেষ্টা।
ওপেনএআই সমগ্র মানবতার পক্ষ থেকে একটি মহান দায়িত্ব পালন করছে।
কিন্তু বছরের পর বছর ধরে, নিরাপত্তা সংস্কৃতি এবং প্রক্রিয়াগুলি চকচকে পণ্যগুলির পিছনে একটি আসন নিয়েছে।
যদি Brundage সঠিক হয়, এবং AI কোম্পানিগুলি এবং বিশ্ব সত্যিই AGI-এর জন্য প্রস্তুত না হয়, তাহলে OpenAI-এর কিছু মহান মনীষী যখন সবচেয়ে বেশি প্রয়োজন ছিল ঠিক তখনই কোম্পানি ছেড়ে যাচ্ছেন তা সত্যিই উদ্বেগজনক।