ডিপসিক এবং কৃত্রিম বুদ্ধিমত্তার নতুন যুগ
ডিপসিক শুধু আরেকটি ভাষা মডেল নয়, এটি এক নতুন যুগের সূচনা করছে। কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি আর কেবল গুটিকয়েক প্রযুক্তি জায়ান্টের একচেটিয়া নিয়ন্ত্রণে থাকবে না। বরং, এটি আরও উন্মুক্ত হবে।
কৃত্রিম বুদ্ধিমত্তার প্রতিযোগিতা যেন এক অস্ত্র প্রতিযোগিতার রূপ নিয়েছে—বিশ্বের বড় প্রযুক্তি কোম্পানিগুলো নিরন্তর চেষ্টা করছে সবচেয়ে শক্তিশালী মডেল তৈরি করতে, যাতে তারা বাজারে নিজেদের আধিপত্য বজায় রাখতে পারে। গুগল, ওপেনএআই, মেটা, এবং মাইক্রোসফটের মতো প্রতিষ্ঠানগুলোর দীর্ঘদিনের প্রচেষ্টার বিপরীতে, সাম্প্রতিক সময়ে চীনা গবেষকদের তৈরি ডিপসিক (DeepSeek) এবং নতুন মডেল ডিপসিক R1 পুরো গেমটাই পাল্টে দিচ্ছে। এই পরিবর্তনের মূল কারণ হলো মডেলটি কম খরচে প্রশিক্ষিত হলেও তার কর্মক্ষমতা অনেক বেশি শক্তিশালী, এবং এর সবচেয়ে গুরুত্বপূর্ণ দিক হলো এর সম্পূর্ণ উন্মুক্ত কাঠামো।
২০২২ সালে চ্যাটজিপিটি আসার পর থেকে এক প্রবল প্রতিযোগিতা শুরু হয়েছে—কে সবচেয়ে উন্নত, সবচেয়ে বড় ভাষা মডেল বানাতে পারে? ওপেনএআই এবং মাইক্রোসফটের মতো প্রতিষ্ঠানগুলি একচেটিয়া নিয়ন্ত্রণ ধরে রাখার জন্য তাদের মডেলগুলোকে সম্পূর্ণ গোপন রেখেছে; তারা কখনোই তাদের প্রশিক্ষণের তথ্য, মডেলের অভ্যন্তরীণ কাঠামো, বা কত বড় ডেটাসেট ব্যবহার করা হয়েছে, সেসব প্রকাশ করে না। অন্যদিকে, মেটা তাদের লামা (LLaMA) মডেলগুলো উন্মুক্তভাবে প্রকাশ করলেও, এত বিশাল মডেল ব্যবহার করা ব্যক্তিগত গবেষকদের জন্য কার্যত অসম্ভব। এগুলো পরিচালনা করতে লাগে শত শত বিলিয়ন ডলারের কম্পিউটিং শক্তি, এবং সাধারণ গবেষক বা বিশ্ববিদ্যালয়ের জন্য তা দুঃস্বপ্নের মতো ব্যয়বহুল।
ডিপসিক প্রমাণ করে যে, অত্যাধুনিক কৃত্রিম বুদ্ধিমত্তা তৈরি করতে একচেটিয়া প্রযুক্তিগত ক্ষমতার প্রয়োজন নেই। মাত্র ৫ মিলিয়ন ডলার ব্যয়ে তারা এমন একটি মডেল তৈরি করেছে, যা কর্মক্ষমতায় ওপেনএআই-এর জিপিটি বা মেটার লামার সাথে তুলনীয়, অথচ প্রশিক্ষণের জন্য খরচ তুলনামূলকভাবে নগণ্য। এর মানে দাঁড়ায়, এখন আর গুটিকয়েক প্রযুক্তি প্রতিষ্ঠানের পক্ষে একচেটিয়া আধিপত্য ধরে রাখা সম্ভব হবে না।
কম খরচে এআই—মিক্সচার অব এক্সপার্টস এবং ডিস্টিলেশন
ডিপসিকের মডেলগুলো প্রচলিত বড় মডেলগুলোর মতো একযোগে সব ধরনের সমস্যার সমাধান করতে চায় না। বরং, এটি Mixture of Experts নামক একটি কৌশল ব্যবহার করে, যেখানে পুরো মডেল একসাথে কাজ না করে বিভিন্ন অংশ নির্দিষ্ট সমস্যার সমাধান করে। উদাহরণস্বরূপ, একটি গাণিতিক সমস্যার উত্তর দিতে মডেলের শুধুমাত্র একটি নির্দিষ্ট অংশ সক্রিয় হবে, ফলে পুরো ৬৭০ বিলিয়ন প্যারামিটারের একটি মডেল চালানোর প্রয়োজন হয় না। ফলে শক্তির অপচয় কমে, এবং মডেলটি আরও কার্যকরভাবে কাজ করতে পারে।
এছাড়াও, distillation নামে পরিচিত আরেকটি পদ্ধতি ব্যবহার করে বিশাল মডেল থেকে একটি ক্ষুদ্র সংস্করণ তৈরি করা হয়, যা তুলনামূলকভাবে কম কম্পিউটিং শক্তি ব্যবহার করে কিন্তু প্রায় একই স্তরের কর্মক্ষমতা প্রদান করতে সক্ষম। উদাহরণস্বরূপ, একটি ৬৭০ বিলিয়ন প্যারামিটার মডেল থেকে ৮ বিলিয়ন প্যারামিটারের ক্ষুদ্র সংস্করণ তৈরি করা সম্ভব, যা সাধারণ হার্ডওয়্যারেও চালানো যায়। এর অর্থ, কৃত্রিম বুদ্ধিমত্তার ব্যবহার সীমিত শক্তিশালী সংস্থার একচেটিয়া নিয়ন্ত্রণে থাকার বদলে আরও অনেকের হাতের নাগালে আসতে পারে।
চেইন অব থট
ডিপসিকের R1 মডেল আরেকটি গুরুত্বপূর্ণ অগ্রগতি এনেছে: Chain of Thought। প্রচলিত এআই মডেলগুলো সাধারণত পরবর্তী শব্দ অনুমান করেই উত্তর দেয়, কিন্তু কোনো জটিল প্রশ্নের ক্ষেত্রে সেটি ব্যর্থ হতে পারে। চেইন অব থট প্রযুক্তির মাধ্যমে মডেল নিজে নিজে সমস্যার ধাপে ধাপে সমাধান লিখতে শিখে।
ধরা যাক, আপনি একটি প্রশ্ন করলেন:
“তিনটি বাক্সের স্তূপ রয়েছে, নিচে লাল, মাঝখানে নীল, এবং উপরে হলুদ। আপনি মাঝখানের নীল বাক্সটি সরিয়ে উপরে রাখলেন এবং সবশেষে সবুজ একটি নতুন বাক্স যোগ করলেন। এখন স্তূপের বিন্যাস কেমন হবে?”
সাধারণ ভাষা মডেল একবারে উত্তর দিতে গিয়ে বিভ্রান্ত হবে, কারণ এটি যুক্তির ধাপে ধাপে বিশ্লেষণ করে না। কিন্তু চেইন অব থট ব্যবহার করে মডেল ধাপে ধাপে নিজের সঙ্গে আলোচনা করে, স্তূপ পরিবর্তনের প্রতিটি ধাপ ব্যাখ্যা করে, এবং শেষে একটি সঠিক উত্তর প্রদান করে।
এর সবচেয়ে বড় বৈপ্লবিক দিক হলো, ডিপসিক এই প্রযুক্তিটি সম্পূর্ণ উন্মুক্ত করে দিয়েছে। ওপেনএআই বা গুগলের মতো প্রতিষ্ঠান যেখানে এই প্রযুক্তিকে গোপন রাখে, সেখানে ডিপসিক এটি উন্মুক্ত করে দিয়ে দেখিয়ে দিয়েছে, অত্যাধুনিক এআই তৈরি করতে আপনাকে শত শত বিলিয়ন ডলারের কোম্পানি হতে হবে না। এটি বিশ্ববিদ্যালয়, স্বতন্ত্র গবেষক, এবং ক্ষুদ্র উদ্যোগগুলোর জন্য কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রে এক নতুন সম্ভাবনার দ্বার খুলে দিয়েছে।
ডিপসিকের সাফল্যের সবচেয়ে বড় ধাক্কা লেগেছে সিলিকন ভ্যালিতে। দীর্ঘদিন ধরে মাইক্রোসফট, ওপেনএআই, গুগল এবং এনভিডিয়ার মতো প্রতিষ্ঠান ধরে নিয়েছিল, কৃত্রিম বুদ্ধিমত্তার উন্নয়ন মানেই বিশাল বিনিয়োগ ও অগণিত GPU ব্যবহার। কিন্তু ডিপসিকের দেখানো পথ অনুযায়ী, সীমিত হার্ডওয়্যার দিয়েও কার্যকর এআই তৈরি করা সম্ভব।
এটি বিশেষভাবে এনভিডিয়ার মতো প্রতিষ্ঠানের জন্য সমস্যার কারণ হয়ে দাঁড়াতে পারে, কারণ তাদের ব্যবসার বড় একটি অংশই নির্ভর করে বৃহৎ প্রযুক্তি কোম্পানিগুলো যে বিপুল পরিমাণ GPU কেনে তার ওপর। যদি কম শক্তিশালী হার্ডওয়্যারেই উন্নত মডেল তৈরি করা সম্ভব হয়, তাহলে এই বাজার ধীরে ধীরে সংকুচিত হবে।
একইভাবে, ওপেনএআই-এর মতো প্রতিষ্ঠান যাদের ব্যবসার মূল ভিত্তি তাদের উন্নত মডেল এবং তার অজানা কাঠামো, তারা বড় সমস্যায় পড়তে পারে। কারণ এখন ডিপসিকের মতো গবেষণা সংস্থা প্রকাশ্যেই দেখাচ্ছে কীভাবে উন্নত মডেল তৈরি করা যায়, এবং সেটি উন্মুক্তভাবে সবাইকে ব্যবহার করতে দিচ্ছে।
ডিপসিক শুধু আরেকটি ভাষা মডেল নয়, এটি এক নতুন যুগের সূচনা করছে। কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি আর কেবল গুটিকয়েক প্রযুক্তি জায়ান্টের একচেটিয়া নিয়ন্ত্রণে থাকবে না। বরং, এটি আরও উন্মুক্ত হবে, সবার কাছে সহজলভ্য হবে, এবং গবেষকরা স্বাধীনভাবে এটি নিয়ে পরীক্ষা করতে পারবেন।
সম্ভবত আমরা এমন এক ভবিষ্যতের দিকে এগোচ্ছি যেখানে এআই প্রযুক্তির বিকাশ শুধুমাত্র বিশাল ডেটাসেট বা অবিশ্বাস্য পরিমাণ কম্পিউটিং শক্তির ওপর নির্ভর করবে না, বরং আরও বুদ্ধিদীপ্ত ও দক্ষ প্রশিক্ষণ পদ্ধতির মাধ্যমে উন্নতি করবে। আর যদি তা হয়, তবে কৃত্রিম বুদ্ধিমত্তার আধিপত্য কেবল সিলিকন ভ্যালির কর্পোরেশনগুলোর হাতে থাকবে না—এটি হয়ে উঠবে সত্যিকার অর্থে গণতান্ত্রিক এক প্রযুক্তি।