AI হাইপ, ভবিষ্যদ্বাণী আর অদৃশ্য প্রতারণার রাজনীতি
প্রযুক্তি যখন জাদুর মতো মনে হয়, তখন বুঝতে হবে আসলে কেউ কৌশলে ধোঁয়াশাকে বিক্রি করছে।
আজ যে বিষয় নিয়ে লিখছি, সেটাই আমার জীবনযাত্রার কেন্দ্রবিন্দু—আমার পেশার শাণিত শৃঙ্খলা আর নেশার দাহ্য কৌতূহল। প্রযুক্তি কেবল একটি যন্ত্র বা অ্যালগরিদমের সমষ্টি নয়, বরং মানব সমাজের ভাবনা, ভাষা, অর্থনীতি এবং নৈতিকতার সঙ্গে অঙ্গাঅঙ্গিভাবে যুক্ত এক চলমান প্রক্রিয়া। তাই যখন দেখি, কিছু স্বার্থান্বেষী গোষ্ঠী প্রযুক্তিকে ব্যাখ্যা করার পরিবর্তে তাকে ধোঁয়াশায় ঢেকে মুনাফার অস্ত্র বানায়, তখন তা শুধু পেশাগত দায়িত্ব নয়—নৈতিক দায়ও হয়ে দাঁড়ায় এর ভ্রান্তি উন্মোচন করা।
প্রযুক্তির ইতিহাস প্রমাণ করে, স্বচ্ছতা ও দায়বদ্ধতার অভাবে যে কোনো আবিষ্কারই রূপ নেয় ক্ষমতার খেলায়, যেখানে জনগণের অজ্ঞতাকে কাজে লাগিয়ে তৈরি হয় নতুন শোষণের কাঠামো। এ কারণেই লিখতে হয়—সচেতনতা তৈরির জন্য, যাতে নাগরিকরা বুঝতে পারেন মেশিন লার্নিং, নিউরাল নেটওয়ার্ক বা জেনারেটিভ মডেলের আসল সীমা কোথায়, আর কোন অংশ কেবল অলীক প্রতিশ্রুতি। মিথ্যা প্রত্যাশা মানুষকে সহজে প্রলুব্ধ করে, তেমনি শিক্ষা প্রমাণ করে সমালোচনামূলক চিন্তা ছাড়া প্রযুক্তির ব্যবহার সর্বদাই অসম্পূর্ণ থেকে যায়।
এই লেখালিখির মধ্য দিয়েই আমি চাই, সমাজে একধরনের গণজবাবদিহি ও সতর্কতা তৈরি হোক—যাতে আমরা হাইপকে হাইপ হিসেবেই চিনতে পারি, আর প্রযুক্তিকে দেখতে পারি তার প্রকৃত রূপে: সীমাবদ্ধ হলেও গুরুত্বপূর্ণ।
কৃত্রিম বুদ্ধিমত্তার (AI) ইতিহাসকে প্রযুক্তির সামগ্রিক বিকাশ থেকে পুরোপুরি আলাদা করে দেখা যায় না; এর শিকড় প্রাচীনকাল পর্যন্ত বিস্তৃত। যেমন আবাকাস, তেমনি আজ আমরা যেসব যন্ত্রকে AI বলি, সেগুলো আসলে আমাদের আনুষ্ঠানিক ও মানসিক দক্ষতাগুলিকে অনুকরণ ও স্বয়ংক্রিয় করে তোলে—তবে আরও ব্যাপক স্তরে।
আনুষ্ঠানিকভাবে AI গবেষণা শুরু হয় দ্বিতীয় বিশ্বযুদ্ধ-পরবর্তী সময়ে “প্রতীকভিত্তিক” (symbolic) ধারা দিয়ে। এ ধারার উদ্দেশ্য ছিল মানুষের ক্ষমতা—যেমন যুক্তি, জ্ঞান, অস্তিত্বতত্ত্ব ও অর্থতত্ত্ব—সফটওয়্যারের কাঠামোর ভেতরে প্রোগ্রাম করা। কিন্তু কাজটি যতটা সহজ মনে হয়েছিল, বাস্তবে তা ততটাই কঠিন হয়ে দাঁড়ায়। বৃহত্তর ক্ষেত্রের অদম্য আশাবাদ সত্ত্বেও এই প্রতীকভিত্তিক পদ্ধতি নানা লজিস্টিক ও ধারণাগত সীমাবদ্ধতায় জড়িয়ে পড়ে। ফলে শতাব্দীর শেষভাগে এসে এর অগ্রগতি থমকে যায়।
মেশিন লার্নিং নামের প্রতিদ্বন্দ্বী পদ্ধতিটি এমন অ্যালগরিদম তৈরি করল, যা সরল শক্তি-নির্ভর অপ্টিমাইজেশনের মাধ্যমে মনে হলো মানবমনের কিছু মৌলিক কার্যক্রম পুনরুত্পাদন করছে। শুরুতে এই ধারা আটকে ছিল তথ্যের স্বল্পতা ও সীমিত কম্পিউটিং ক্ষমতার কারণে। কিন্তু নতুন সহস্রাব্দে এসে সেই প্রতিবন্ধকতা ভেঙে যায়—ইন্টারনেট বিপুল পরিমাণ তথ্য সঞ্চয় করে ফেলেছিল, আর একটি নির্দিষ্ট প্রযুক্তি—গ্রাফিক প্রসেসিং ইউনিট (GPU), যা সাধারণত ব্যক্তিগত কম্পিউটার ও গেম কনসোলে ব্যবহৃত হতো—প্রমাণিত হলো মেশিন লার্নিং মডেলের জন্য প্রয়োজনীয় তীব্র কম্পিউটেশন সম্পাদনে অত্যন্ত কার্যকর।
২০১১ সালে কম্পিউটার বিজ্ঞানী অ্যালেক্স ক্রিজেভস্কি, ইলিয়া সুতস্কেভার এবং জিওফ্রে হিন্টন এক ধরনের নিউরাল নেটওয়ার্ক (যা মোটামুটি মস্তিষ্কের গঠন থেকে অনুপ্রাণিত মডেল) তৈরি করেছিলেন, যার লক্ষ্য ছিল বহুল আলোচিত ইমেজনেট প্রতিযোগিতা। এটি ছিল স্বয়ংক্রিয় চিত্র-বর্ণনার এক ক্ষুদ্র প্রতিযোগিতা, যেটিকে সে সময়ে অনেক AI গবেষকই তাচ্ছিল্যের চোখে দেখতেন। কিন্তু তাদের মডেল ছবিগুলোকে ৮৫ শতাংশ নির্ভুলতায় বর্ণনা করেছিল—যা পূর্ববর্তী প্রচেষ্টার তুলনায় বিরাট অগ্রগতি।
অল্প সময়ের মধ্যেই AI গবেষণার অধিকাংশ সম্পদ পুনর্নির্দেশিত হলো এই অবহেলিত উপশাখায়, যার পরিণতিতে গড়ে উঠল আজকের সেই নিউরাল নেটওয়ার্কগুলো, যা সামাজিক যোগাযোগমাধ্যম, সার্চ ইঞ্জিন ও ই-কমার্সকে চালিত করে এবং একইসঙ্গে ভোক্তাদের জন্য এক নতুন প্রজন্মের পণ্যও সম্ভব করে তুলেছে।
২০১৫ সালে একটি অপরিচিত অলাভজনক প্রতিষ্ঠান ওপেনএআই প্রতিষ্ঠিত হয়—প্রতিষ্ঠাতাদের মধ্যে ছিলেন ইলিয়া সুতস্কেভার, ইলন মাস্ক, স্যাম অল্টম্যানসহ আরও কয়েকজন কম্পিউটার বিজ্ঞানী ও প্রকৌশলী। সাত বছর পর, প্রতিষ্ঠানটি প্রকাশ করে চ্যাটজিপিটি।
কিন্তু পণ্যটির বিপুল সাড়া পেয়ে ওপেনএআই নিজেই হতচকিত হয়ে পড়ে, কারণ তারা আগেভাগে যথেষ্ট কম্পিউটিং ক্ষমতা সুরক্ষিত করতে পারেনি। ঘটনাটি মাত্র তিন বছর আগের। আজ পরিস্থিতি একেবারে পাল্টে গেছে—জেনারেটিভ AI সর্বত্র ছড়িয়ে পড়েছে, আর ওপেনএআই-এর অনুমানভিত্তিক বাজারমূল্য দাঁড়িয়েছে ৩০০ বিলিয়ন ডলার।
এখানে বিস্ময়ের কিছু নেই যে প্রযুক্তির সংক্ষিপ্ত এই বিবরণ ইতিহাসের খামখেয়ালিপনা প্রকাশ করছে। তবু একটি জনপ্রিয় কল্পনা এ ইতিহাসকে অনেক সহজভাবে সাজায়—যেন কম্পিউটিং-এর ইতিহাস হলো সাফল্য ও হঠাৎ উদ্ভাসিত জ্ঞানের এমন একটি চিত্রনাট্য, যেখানে অগ্রগতি স্বাভাবিক, তুচ্ছ, আর ধাপে ধাপে কেবল ঘাত-ক্রমবর্ধমান। আমি ইঙ্গিত করছি AI-কে ঘিরে গড়ে ওঠা সেই প্রচারণার দিকে—শিল্পকেন্দ্রিক উষ্ণ বায়ুপ্রবাহ, যা সমাজের প্রতিটি প্রান্তে ছড়িয়ে পড়ে, এবং সাংস্কৃতিক উন্মাদনা উসকে দিতে উদ্যত।
প্রিন্সটন বিশ্ববিদ্যালয়ের কম্পিউটার বিজ্ঞানী অরবিন্দ নারায়ণন ও সায়াশ কাপুর AI Snake Oil লিখেছেন সাধারণ নাগরিকদের সহায়তার জন্য—যাতে তারা “সাধারণ জ্ঞানভিত্তিক উপায়ে” কোনো কথিত অগ্রগতি আসলেই বিশ্বাসযোগ্য কিনা তা বিচার করতে পারে এবং AI–কে ঘিরে প্রচারণার ফাঁদ থেকে বের হতে পারে। যদিও তারা জেনারেটিভ AI–এর “বাস্তব ও অসাধারণ” অগ্রগতিকে অস্বীকার করছেন না, তবুও এর ব্যাপক ব্যবহার ও গ্রহণযোগ্যতার সামাজিক পরিণতি নিয়ে তারা গভীরভাবে চিন্তিত, এমনকি হতাশাবাদী।
তাদের মতে, সমস্যার বড় একটি অংশ তৈরি হয়েছে কৃত্রিম বুদ্ধিমত্তার অর্থ নিয়েই বিভ্রান্তি থেকে—যা আজকের বাণিজ্যিক AI উত্থানের সঙ্গে জড়িয়ে আছে এবং তাকে টিকিয়ে রেখেছে। উদাহরণস্বরূপ, হলিউডে বিদ্রোহী AI–কে ঘিরে নতুন করে যে মোহ তৈরি হয়েছে (Mission: Impossible—Dead Reckoning Part One, Atlas, The Creator), অথবা বাজারে হুড়োহুড়ি লেগেছে ভ্যাকুয়াম ক্লিনার, হিউমিডিফায়ারসহ নানা দৈনন্দিন যন্ত্রে AI লেবেল লাগানোর জন্য—even Spotify আর YouTube–এর বহু পুরনো অ্যালগরিদম পর্যন্ত AI নামে চালানো হচ্ছে। সাম্প্রতিক সময়ে আবার দেখা যাচ্ছে কিছু পরিষেবা, যেগুলো নামেমাত্র মেশিন লার্নিং ব্যবহার করে (যেমন Amazon Fresh) কিংবা মোটেও ব্যবহার করে না (যেমন “AI” সিডিউলার সফটওয়্যার Live Time), তারা জনসাধারণের মধ্যে AI–এর পরিচয় ও ক্ষমতা নিয়ে বিভ্রান্তি আরও বাড়িয়ে তুলেছে।
নারায়ণন ও কাপুর বিশেষভাবে চিন্তিত জেনারেটিভ AI ও প্রেডিক্টিভ AI–এর বিভ্রান্তি নিয়ে। জেনারেটিভ AI মানুষের ইনপুটের সম্ভাব্য প্রতিক্রিয়া থেকে কনটেন্ট তৈরি করে, আর প্রেডিক্টিভ AI দাবি করে ভবিষ্যতের ফলাফল সঠিকভাবে অনুমান করতে পারবে—হোক তা কোনো চাকরি প্রার্থীর সাফল্য কিংবা গৃহযুদ্ধের সম্ভাবনা।
তাদের বক্তব্য অনুযায়ী, জেনারেটিভ AI–ভিত্তিক পণ্যগুলো এখনো “অপরিণত, অবিশ্বস্ত, এবং সহজেই অপব্যবহারযোগ্য”; আর প্রেডিক্টিভ AI–কে তারা আরও কঠোরভাবে প্রত্যাখ্যান করে বলেছেন, এটি “আজ কার্যকর নয়, ভবিষ্যতেও সম্ভবত কখনো কার্যকর হবে না।” কিন্তু প্রচারণার ঝড়ে এই গুরুত্বপূর্ণ পার্থক্যগুলো মুছে গেছে, আর তা সুযোগ করে দিয়েছে প্রতারক, ও ভুয়া বুদ্ধিজীবীদের—যারা মিথ ও ভবিষ্যদ্বাণীর মাধ্যমে জনসাধারণকে প্রভাবিত করে।
ইতিহাসে ব্যবসা ও প্রযুক্তির ক্ষেত্রে অতিরিক্ত আশাবাদ বা প্রচারণা নতুন কিছু নয়। তবে এ ঢেউয়ের ব্যাপকতা ও তীব্রতা বিশেষভাবে লক্ষণীয়—যা প্রতিফলিত হচ্ছে প্রযুক্তিগত ভবিষ্যদ্বাণীমূলক গ্রন্থগুলোর ক্রমবর্ধমান প্রকাশে। এর মধ্যে উল্লেখযোগ্য হলো গুগলের রে কার্জওয়েলের The Singularity Is Nearer, ইউভাল নোয়া হারারির Nexus, এবং সাবেক মাইক্রোসফট নির্বাহী ক্রেইগ মুন্ডি, সাবেক গুগল সিইও এরিক শ্মিট ও প্রয়াত হেনরি কিসিঞ্জারের যৌথ রচনা Genesis।
অনেক AI–ভবিষ্যদ্বক্তার এক অদ্ভুত বৈশিষ্ট্য হলো—তারা প্রযুক্তিটিকে নিজেই তেমনভাবে জানেন না। ২০১৫ সালে Homo Deusপ্রকাশের পর, যেখানে পপুলার বিবর্তনবাদ আর উত্তর–মানবতাবাদী কল্পনার ওপর ভর করে প্রযুক্তিগত উদ্ভাবন নিয়ে ভবিষ্যদ্বাণী করা হয়েছিল, তখন সামরিক ইতিহাসবিদ হিসেবে প্রশিক্ষিত হারারি আবিষ্কার করলেন যে, তিনি নাকি “AI–বিশেষজ্ঞ” হিসেবে খ্যাতি অর্জন করেছেন। তাঁর পরের বই Nexus–এর লক্ষ্য ছিল “AI বিপ্লবের আরও সঠিক ঐতিহাসিক দৃষ্টিভঙ্গি প্রদান,” কিন্তু পাঠ করলে মনে হয় এটি আসলে একজন স্নাতক শিক্ষার্থীর ভুল-ভাল বই, শ্রেণীভ্রান্তি আর জোর করে গুঁজে দেওয়ার ব্যায়াম।
মেশিন লার্নিং বোঝাতে গিয়ে হারারি “বেবি অ্যালগরিদম”–এর প্রি–ট্রেনিংকে জীবন্ত শিশুদের শৈশবের সঙ্গে তুলনা করেছেন—যা এই প্রযুক্তি বোঝানোর সবচেয়ে খারাপ উদাহরণগুলোর একটি। মানুষের শেখার পদ্ধতি সম্পর্কে যতটুকু জানা আছে (যেখানে অল্প তথ্য থেকেও স্বাধীনভাবে সাধারণীকরণ সম্ভব), তা মোটেই মেশিন লার্নিংয়ের মতো নয় (যেখানে বিপুল পরিমাণ তথ্য দিয়ে প্রশিক্ষণ দিতে হয়)। তবু নিরুৎসাহিত না হয়ে হারারি জোর দিয়ে বলেছেন মডেলগুলো নাকি “নিজেদের নতুন কিছু শেখাতে সক্ষম।” তিনি উদাহরণ দিয়েছেন “আজকের দাবাখেলোয়াড় AI”–এর, যাকে নাকি “খেলার মৌলিক নিয়ম ছাড়া আর কিছু শেখানো হয়নি।” অথচ বিশ্বের সবচেয়ে সফল দাবা–ইঞ্জিন Stockfish–এ বহু মানব–কৌশল প্রোগ্রাম করা আছে।
হারারি ব্যাখ্যা করতে ব্যর্থ হয়েছেন যে, মেশিন–লার্নিং মডেলগুলো মূলত নির্দিষ্ট সমস্যার সমাধানের একটি টেমপ্লেট তৈরি করে (যেমন কোনো দাবার অবস্থানে সেরা চাল কী হতে পারে), আর এই সমস্যা ও সমাধানের কাঠামো সম্পূর্ণভাবে প্রকৌশলীরা তৈরি করে দেন। ফলে এই মডেলগুলো আসলে মানবীয় বিচার–বুদ্ধি ও জ্ঞানের এক জটিল কাঠামোর ভেতরেই আবদ্ধ, যা তারা কার্যত অতিক্রম করতে পারে না।
এভাবে বারবার হারারি কৃত্রিম বুদ্ধিমত্তা সম্পর্কিত সরল ধারণাগুলোই গুলিয়ে ফেলেন। উদাহরণস্বরূপ, দার্শনিক নিক বোস্ট্রমের “alignment problem”—যা AI আলোচনার এক মূল উপাদান—একটি সাধারণ চিন্তা, যেখানে দেখানো হয় কিভাবে AI মানব–লক্ষ্য পূরণ করতে গিয়ে এমন উপায় বেছে নিতে পারে যা তার নির্মাতাদের বৃহত্তর স্বার্থের বিরোধী। যেমন, সামাজিক যোগাযোগমাধ্যমে ব্যবহারকারীদের সময় সর্বাধিক করতে গিয়ে AI হয়তো তাদেরকে বিভৎস, মিথ্যা, বা রাজনৈতিকভাবে চরমপন্থী কনটেন্ট দেখাতে পারে। কিন্তু হারারি এটিকে প্রমাণ করতে চেয়েছেন যে “alignment problem” আসলে এক চিরন্তন দ্বন্দ্ব, আর তাই তিনি এটি প্রয়োগ করেছেন এমন সব ঐতিহাসিক ঘটনায় যেখানে বাস্তবে AI–এর কোনো ভূমিকা ছিল না (যেমন “আমেরিকার ইরাক আক্রমণ”), যেখানে “স্বল্পমেয়াদি সামরিক লক্ষ্য” আর “দীর্ঘমেয়াদি ভূ–রাজনৈতিক লক্ষ্য” ভিন্নমুখী হয়েছিল। অথচ বোস্ট্রমের সতর্কবার্তা shortsightedness নিয়ে নয়, বরং এমন longsightedness নিয়ে, যা মধ্যবর্তী ধাপে অমানবীয় সিস্টেমের ভূমিকা একেবারেই দেখতে পায় না।
কিছু ক্ষেত্রে এই অজ্ঞতা কৌশলগত বলে মনে হয়। হারারি Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) সিস্টেম নিয়ে আলোচনা করেছেন—একটি মেশিন লার্নিং টুল, যা কয়েকটি অঙ্গরাজ্যের আদালতে অভিযুক্তের পুনরায় অপরাধ করার সম্ভাবনা স্কোর করতে ব্যবহৃত হয়েছে। হারারি সঠিকভাবেই দেখিয়েছেন, COMPAS–এর ব্যবহার এক প্রকার কেলেঙ্কারি, যেখানে “অস্বচ্ছ অ্যালগরিদম” গণতান্ত্রিক স্বচ্ছতাকে বিপন্ন করছে।
কিন্তু তিনি এ সিস্টেমের সবচেয়ে মৌলিক ত্রুটির কথা উল্লেখ করেননি। নারায়ণন ও কাপুরের ভাষায়, “টুলটি শুরু থেকেই খুব বেশি নির্ভুল ছিল না; এর আপেক্ষিক নির্ভুলতা ছিল মাত্র ৬৪ শতাংশ”—যা আসলে কেবল কয়েন টস করার চেয়ে সামান্য ভালো। তাদের মতে, এই সংখ্যাটিও “সম্ভবত অতিমূল্যায়িত,” যদিও COMPAS–এর মালিক প্রতিষ্ঠান ও কিছু গবেষক এই মূল্যায়নকে বিতর্কিত করেছেন।
হারারির এ অবহেলা বিস্ময়কর, বিশেষত তাঁর প্রযুক্তি-বিরোধী অবস্থান, তাঁর উদ্ধৃত Criminal Justice গবেষণা যেখানে এসব সিস্টেমের “মিশ্র” কার্যকারিতা দেখানো হয়েছিল, এবং তাঁর উল্লেখিত ProPublica–র COMPAS–বিষয়ক অনুসন্ধান—যা নারায়ণন ও কাপুরও ব্যবহার করেছেন।
মেশিন–লার্নিং টুলের অস্বচ্ছতা নিঃসন্দেহে একটি প্রযুক্তিগত সমস্যা, কিন্তু হারারি একে জাদুকরের রেশমি কাপড়ের মতো ব্যবহার করেছেন—যার আড়ালে বিষয়টিকে রহস্যময়তা থেকে পৌরাণিকীকরণের দিকে ঠেলে দিয়েছেন। তবে এই কৌশলেও তিনি পিছিয়ে পড়েছেন কিসিঞ্জার, মুন্ডি ও শ্মিটের তুলনায়, যাদের Genesis বইকে বলা চলে The Age of AI (2021)–এর উত্তরাধিকার। নারায়ণন ও কাপুরের ভাষায়, সেটি ছিল “অতিরঞ্জনে নিরবচ্ছিন্ন” এবং “AI প্রচারণায় ভরা”।
Genesis–এর ভেতরের দাবিগুলো বিচার করাই কঠিন, কারণ কৃত্রিম বুদ্ধিমত্তা নিয়ে তাদের ধারণা এতটাই দূরের যে লেখক (স্বীকারোক্তি অনুযায়ী প্রযুক্তি–অজ্ঞ) সেটিকে গুরুতর প্রযুক্তিগত ভবিষ্যদ্বাণী হিসেবে নিতে পারেননি। (আসলে আমার দৃঢ় বিশ্বাস, “interstellar fleets” শব্দবন্ধ কোনো বইতে স্থান পাওয়া উচিত নয়, যদি সেটি প্রযুক্তির ভবিষ্যৎ নিয়ে সিরিয়াস দাবি করতে চায়।)
গদ্যের বাহার থাকলেও Genesis মূলত আড়ম্বরপূর্ণ ঐতিহাসিক অভিযাত্রার একটি ক্রম, যেখানে মানব প্রচেষ্টা—বিজ্ঞান, রাজনীতি, যুদ্ধ ইত্যাদি—AI–এর হাতে এসে রূপান্তরের সীমানায় দাঁড়িয়ে যায়:
আমাদের মন ঈশ্বর, পৃথিবী, আর এখন আমাদের সর্বশেষ সৃষ্টির সামনে শিশুদের মত রয়ে গেছে…
কিন্তু AI কি হবে বিজেতা? মানব নেতা কি হবে তাদের প্রতিনিধি—সার্বভৌমত্বহীন সার্বভৌম?
নাকি দেবসদৃশ AI আবার ফিরিয়ে আনবে এককালের ঈশ্বরপ্রদত্ত রাজশক্তির ধারণা, যেখানে রাজাদের অভিষেক করবে AI নিজেরাই?
অথবা, মানুষের মস্তিষ্ক–ভিত্তিক কাঠামোযুক্ত যন্ত্রের আপাত শ্রেষ্ঠ বুদ্ধিমত্তা ও আমাদের তাদের ওপর প্রবল নির্ভরতা মিলিয়ে কি মানুষকে এই বিশ্বাসে পৌঁছে দেবে যে, আমরা নিজেরাই দেবত্বে মিশে যাচ্ছি, কিংবা দেবতায় রূপান্তরিত হচ্ছি?
সিলিকন ভ্যালির তথাকথিত বৌদ্ধিক সংস্কৃতির সাধারণ আবর্জনা ভেবে এ–সব তুচ্ছ করা যথেষ্ট মনে হতে পারে, যতক্ষণ না এর ভেতরে রাজনৈতিক অনুরণন ধরা পড়ে। কিসিঞ্জার, মুন্ডি ও শ্মিট প্রায়ই ভাবেন “ফেটালিজম,” “প্যাসিভিটি,” “সাবমিশন,” আর “ফেইথ” নিয়ে—যেভাবে “স্বতন্ত্র মানুষ ও সমগ্র মানবসমাজ শক্তিশালী AI–এর আগমনে সাড়া দিতে পারে।” হারারির মতো তাঁরাও AI–এর “অস্বচ্ছতা”র প্রসঙ্গ টেনে এনে এমন প্রশ্নকে বৈধতা দেন: “AI–এর যুগ কি মানুষকে এগিয়ে নেওয়ার বদলে আমাদের ফিরিয়ে নিয়ে যাবে অজানা কর্তৃত্বের প্রাক–আধুনিক স্বীকৃতিতে?”
এই ধরনের প্রশ্ন পাঠকের মনে পাল্টা প্রশ্নও জাগায়। যে প্যাসিভিটি নিয়ে তাঁরা এত ব্যস্ত, সেটি কি পাঠকের মনে একই মনোভাব রোপণ করার কৌশল? ধনকুবের ও কর্পোরেট মালিকদের কি কোনো লাভ আছে সাধারণ মানুষকে ফেটালিজমকে সম্মানজনক ও যুক্তিসঙ্গত ভাবতে শেখানোর মাধ্যমে? AI–কে সর্বশক্তিমান, সর্বজ্ঞ, এবং অজ্ঞেয় হিসেবে চিত্রিত করা কি মিডিয়াকে মোহিত করার, সম্ভাব্য নিয়ন্ত্রকদের ভড়কে দেওয়ার, আর সর্বোপরি আর্থিক বাজারকে উত্তেজিত করার কৌশল নয়?
Genesis বইটি বিপ্লব ও বিপর্যয়, শুরু ও সমাপ্তির আবেশে এক প্রকার এস্ক্যাটোলজি (কিয়ামত) হাজির করে—যেখানে মূল ফোকাস “misaligned AI”–এর “অস্তিত্বগত” ঝুঁকি। লেখকরা কৃত্রিম বুদ্ধিমত্তাকে তুলনা করেছেন পারমাণবিক অস্ত্রের সঙ্গে, এবং ভূরাজনৈতিক প্রতিযোগিতাকে ফ্রেম করেছেন ঠান্ডা যুদ্ধের পুনরাবৃত্ত “arms race” হিসেবে। কিসিঞ্জার–ধাঁচা এই ভবিষ্যৎচিন্তা আসলে পরবর্তী যুদ্ধ–পরবর্তী আন্তর্জাতিক ব্যবস্থার মতো শোনায় (“এক মেরুকেন্দ্রিকতা হয়তো বিলুপ্তির ঝুঁকি কমানোর একটি পথ হতে পারে”), কিন্তু বাস্তব, দীর্ঘস্থায়ী পারমাণবিক সর্বনাশের সম্ভাবনার সঙ্গে অস্পষ্ট, অনুমাননির্ভর AI–এর বৈশ্বিক ঝুঁকিকে সমানভাবে দেখা কোনো বিশেষ ব্যতিক্রম নয়। ওপেনএআই–এর স্যাম অল্টম্যান নিজেও এ কৌশলকে আঁকড়ে ধরেছেন। তিনি Genesis–কে উচ্চপ্রশংসা করেছেন এবং প্রায়ই শ্রোতাদের বলে আনন্দ পান যে কৃত্রিম বুদ্ধিমত্তা “সবচেয়ে সম্ভাব্যভাবে পৃথিবীর সমাপ্তি ঘটাবে”।
নারায়ণন ও কাপুরের মতে, কৃত্রিম বুদ্ধিমত্তার তথাকথিত “অস্তিত্বগত ঝুঁকি” আসলে এক ধরনের আতঙ্কের ভূত—যা প্রযুক্তিটির সক্ষমতাকে বাড়িয়ে দেখায়, সীমাবদ্ধতাকে আড়াল করে, আর নির্বাচিত প্রতিনিধি ও নাগরিকদের মনোযোগ সরিয়ে দেয় AI snake oil–এর বাস্তব ও তাৎক্ষণিক ক্ষতির দিক থেকে। আমার নিজের মতে, এ আতঙ্ক আমাদের কল্পনাকেও একচেটিয়া করে ফেলে এবং আলোচনাকে উন্মত্ত মাত্রায় নিয়ে যায়—যা বিনিয়োগকারীদের আকর্ষণ করে এবং বড় বড় কোম্পানিকে নিয়ন্ত্রণমূলক কাঠামো কব্জা করার পথ করে দেয়।
২০২৩ সালে স্যাম অল্টম্যান সেনেট কমিটির সামনে সাক্ষ্য দিতে গিয়ে AI–এর বিপদ নিয়ে সতর্ক করেছিলেন এবং প্রস্তাব করেছিলেন একটি সরকারি সংস্থার, যা সুবিধাজনকভাবে ওপেনএআই–এর প্রথম–সারির সুবিধাকে স্থায়ী করে দিত—কারণ এতে নতুন প্রতিযোগীদের ওপর নিয়ন্ত্রণের বোঝা চাপানো যেত, অথচ ওপেনএআই–এর ওপর গবেষকরা যে স্বচ্ছতার নিয়ম চালু করতে বলছিলেন, তা এড়িয়ে যাওয়া হতো।
AI যদি অবিবেচনাপ্রসূতভাবে সামাজিক কাঠামোর ভেতর এম্বেড করা হয় তবে অবশ্যই হুমকি তৈরি করবে। তবে নারায়ণন ও কাপুরের যুক্তি হলো, “সমাজের কাছে ইতোমধ্যেই সেই ঝুঁকিগুলো শান্তভাবে মোকাবিলার সরঞ্জাম রয়েছে।” অন্যদিকে অল্টম্যান, Genesis–এর লেখকরা, আর তথাকথিত AI safety কমিউনিটির তৈরি করা বিদ্রোহী AI–এর ভীতিকর চিত্র “বিজ্ঞান কল্পকাহিনীর জগতেই সীমাবদ্ধ রাখা শ্রেয়”।
রে কার্জওয়েলের কাজই মূলত বিজ্ঞান কল্পকাহিনি থেকে ধার করা ধারণা আমদানি করা। তাঁর বই The Singularity Is Near (২০০৫)–এর নামক ঘটনা প্রথম জনপ্রিয় করেছিলেন সাই-ফাই কিংবদন্তি ভার্নর ভিঞ্জ, যিনি ১৯৯৩ সালের প্রবন্ধে ভবিষ্যদ্বাণী করেছিলেন “অতিমানবীয় বুদ্ধিমত্তা”র আবির্ভাব এবং “মানব যুগ”–এর সমাপ্তি—মোটামুটি ত্রিশ বছরের মধ্যে।
কার্জওয়েলের নতুন বই The Singularity Is Nearer–এর ভিত্তি হলো যে, মানবতা এখন এই বিলম্বিত প্রযুক্তিগত র্যাপচারের শেষ প্রস্তুতি শুরু করেছে—একটি ঘটনা, যা তিনি তাঁর “law of accelerating returns” দ্বারা নিশ্চিত বলে দাবি করেন। এই আইনে বলা হয় তথ্যপ্রযুক্তির ক্ষেত্রে “পজিটিভ ফিডব্যাক লুপ” এবং ব্যয়ের পতন পরবর্তী ধাপ নকশা করাকে “আরও সহজ” করে তোলে।
কার্জওয়েলের মতে, কৃত্রিম বুদ্ধিমত্তা নানান ক্ষেত্রে সমন্বয় সাধন করে এমন দ্রুত ও ধারাবাহিক অগ্রগতি ঘটাবে যে ২০৪৫ সালের দিকে মানুষ “AI–এর সঙ্গে মিশে যাবে।” এটিই তাঁর “Singularity”—এক কাল্পনিক ঘটনা, যা তাঁর চিন্তার প্রাথমিক কৌশল প্রকাশ করে, যেখানে প্রায় সবটাই কেবল সরল extrapolation বা প্রক্ষেপণের ওপর দাঁড়িয়ে আছে।
কার্জওয়েলের ভবিষ্যদ্বাণীর ধরণ সাধারণত একটি নির্দিষ্ট শিল্পক্ষেত্রে সাম্প্রতিক অগ্রগতির উদাহরণ দিয়ে শুরু হয়। যেমন চিকিৎসা নিয়ে বলতে গিয়ে তিনি উল্লেখ করেছেন, ২০২৩ সালে মেশিন লার্নিং–ভিত্তিক একটি ওষুধ বিরল এক ফুসফুসের রোগের চিকিৎসার জন্য “ফেজ–টু ক্লিনিক্যাল ট্রায়ালে প্রবেশ করেছে।” এরপর তিনি ঢুকে পড়েন অল্প–সম্পর্কিত দর্শন বা গণিতের প্রসঙ্গে, পাঠককে বিভ্রান্ত করেন অস্পষ্ট জারগন আর বিরাট সংখ্যা দিয়ে—“১০²⁴ operations per second,” “৩০৬,০০,০০০ গিগাবাইট,” “১০০ ট্রিলিয়ন মানুষ,” “এক গুগলপ্লেক্স শূন্য,” “১০¹⁰¹²³ সম্ভাব্য মহাবিশ্ব,” “মিলিয়ন বিলিয়ন বিলিয়ন বিলিয়ন বিলিয়ন বিলিয়ন বিলিয়ন সম্ভাবনা”—যেন এগুলোই প্রমাণ করছে যে তথাকথিত “exponential” অগ্রগতি সব প্রতিবন্ধকতা, সীমা, আর বোতলগলা ভেদ করে এগিয়ে যাবে, অন্তত তিনি যেগুলোর উল্লেখ করেন।
এই প্রদর্শনের ভেতরটা যেন এক ফাঁদে আটকানো পাখির ছটফটানি। কারণ, প্রমাণ আর বুদ্ধিবৃত্তিক বিনয়ের সীমা থেকে বেরিয়েই কার্জওয়েল সত্যিকার অর্থে উড়তে শুরু করেন। তাঁর দাবি, AI চিকিৎসায় বিপ্লব ঘটালে ২০২০–এর শেষ দিক থেকেই এর প্রয়োগ দ্রুত বাড়বে, ২০৩০–এর দশকে AI–নিয়ন্ত্রিত ন্যানোরোবট দিয়ে মানুষের আয়ুর জৈবিক সীমাবদ্ধতার মোকাবিলা সম্ভব হবে, আর শেষমেশ বার্ধক্যের “চূড়ান্ত” পরাজয় ঘটবে। আর ২০৪০–এর দশকে ক্লাউড–ভিত্তিক প্রযুক্তি মানুষকে পুরোপুরি জৈব দেহ ত্যাগ করে মস্তিষ্ককে ডিজিটাল পরিবেশে আপলোড করার সুযোগ দেবে।
কার্জওয়েল কেন এত নির্দিষ্ট সময়সীমায় নিজেকে আবদ্ধ করেন—যা তাঁকে আগেও সংশোধন করতে হয়েছে—সে প্রশ্ন জাগতে পারে। কোনো ভবিষ্যদ্বক্তার তো বরং অনিশ্চিত ও অস্পষ্ট থাকা সুবিধাজনক। কিন্তু তখন মনে পড়ে যায়, কার্জওয়েলের বয়স এখন সাতাত্তর, আর হয়তো (অনুমানের ছলে) তিনি পরবর্তী তিন দশককে বেছে নিয়েছেন মানব–অতিক্রমণের জানালা হিসেবে—কারণ এই সময়সীমাতেই তাঁর নিজের ভবিষ্যদ্বাণী পূর্ণ হতে দেখার সম্ভাবনা রয়েছে।
ব্যর্থতার নিরাপত্তা হিসেবে তিনি অর্থ দিয়ে নিজের শরীরকে “ক্রায়োজেনিকভাবে হিমায়িত ও সংরক্ষণ” করিয়ে রেখেছেন, যেন পুনরুত্থিত হয়ে তাঁর দূরদৃষ্টি দেখে বিস্মিত হতে পারেন। কার্জওয়েলের কাছে মৃত্যু হলো এক প্রযুক্তিগত সমস্যা, যেটি যেকোনোভাবে—যত করুণ বা বিকৃত সমাধানেই হোক না কেন—মোকাবিলা করতেই হবে। পাঠকের চোয়াল হা হয়ে যায় যখন তিনি বর্ণনা করেন “ড্যাড বট”–এর কথা, যেটি তিনি পারিবারিক নথির ওপর ভিত্তি করে প্রশিক্ষিত করেছিলেন “আমার বাবাকে ফিরিয়ে আনার প্রথম ধাপ” হিসেবে। পরবর্তীতে তাঁর সেই অনুকরণ–তৈরি “বাবা”র সঙ্গে কথোপকথনটি করুণ হয়ে ওঠে—তবে যেসব কারণে কার্জওয়েল ভেবেছিলেন, সেসব কারণে নয়।
প্রযুক্তির মূল প্রতিশ্রুতি—ক্লান্তিকর শ্রম হ্রাস—কেন যথেষ্ট বলে মনে হয় না? হয়তো কারণ, অন্তত AI–এর ক্ষেত্রে, এখনো স্পষ্ট নয় কোন শ্রম এটি বাস্তবিক অর্থে কমাতে সক্ষম। আমি নিজে, নারায়ণন ও কাপুরের মতোই, সন্দেহ করি না যে মেশিন লার্নিং নানা শিল্পক্ষেত্রে (চিকিৎসা সহ) ইতিবাচক প্রয়োগ খুঁজে নেবে, আর এর অন্তর্নিহিত কম্পিউটার বিজ্ঞানও ধীরে ধীরে এগিয়ে চলবে। (AI কোনো আশাহীন বিভ্রান্ত প্রযুক্তি নয়, যেমন ক্রিপ্টোকারেন্সি।) কিন্তু কৃত্রিম বুদ্ধিমত্তার প্রতিশ্রুতি আমাদেরকে বিশ্বাস করানোর মতো যথেষ্ট নয় যে আমরা মানব ইতিহাসের “সবচেয়ে উত্তেজনাপূর্ণ ও তাৎপর্যপূর্ণ বছরগুলোতে” বসবাস করছি—যেমন কার্জওয়েল দাবি করেন।
আমার মনে প্রশ্ন জাগল, “হাইপ” শব্দটি কি যথেষ্ট—যদি ভাবা যায় সিলিকন ভ্যালির বহু নেতা, গবেষক, ও সাংবাদিকের উদ্যোগে চালানো এক অসংগঠিত অথচ বৈশ্বিক ধোঁয়াশা–ও–প্রভাবিতকরণ অভিযানের কথা? জনগণ এই অভিযানের কাছে অসহায়, আংশিকভাবে প্রযুক্তিগত উদ্ভাবনের সঞ্চিত প্রকৃতির কারণে। যেমন, চ্যাটজিপিটি বোঝার জন্যই দরকার এর ভিত্তি হয়ে থাকা টুল ও বিষয়গুলোর প্রাথমিক ধারণা (যেমন ট্রান্সফরমার; নিউরাল নেটওয়ার্ক), যেগুলো আবার নির্ভর করে আরও আগের ধারণার ওপর (যেমন ব্যাকপ্রোপাগেশন; লিনিয়ার অ্যালজেব্রা)।
ফলে এ ধরনের প্রযুক্তি আরোপ করে এক সঞ্চিত মানসিক ব্যয়। প্রতিটি প্রযুক্তির জন্য ভিন্ন এক সংকটসীমায় এসে সেই বোঝা এতটাই ভারী হয় যে সাধারণ মানুষ আর সময় বা শক্তি খুঁজে পায় না প্রতারণার বিরুদ্ধে প্রতিরোধ গড়ে তোলার, যা আসলে হাইপের উর্বরক্ষেত্র। কিন্তু এর নিশ্চিত লক্ষণ উদাসীনতা নয়; বরং উপরিতলীয় মুগ্ধতা আর বিস্মিত–চোখে ইউটোপিয়ান কল্পনা (নিউক্লিয়ার ফিউশন আর কোয়ান্টাম কম্পিউটিং–এর উদাহরণই যথেষ্ট)।
তাহলে, হাইপ আসলে এক সামাজিক প্রক্রিয়া, যার মাধ্যমে প্রযুক্তি একপ্রকার জাদুতে রূপ নেয়। Genesis–এর লেখকেরা যখন আর্থার সি. ক্লার্ককে উদ্ধৃত করেন—“যে কোনো পর্যাপ্ত উন্নত প্রযুক্তি জাদুর থেকে অবিচ্ছেদ্য”—তখন তাঁরা অবশ্য উল্লেখ করেন না যে ক্লার্ক এখানে বোঝাচ্ছিলেন উনবিংশ শতকের বিজ্ঞানীর চোখে বিংশ শতকের প্রযুক্তিকে। তাঁদের কাছে ক্লার্কের সেই উক্তি আসলে একটি স্লোগান, যার মূল লক্ষ্য একটাই: নতুন খেলনা ও সরঞ্জাম নিয়ে আমাদের শিশুসুলভ মোহ কৃত্রিমভাবে দীর্ঘায়িত করা, যাতে প্রযুক্তিবিদেরা সময় কিনে নিতে পারেন তাঁদের অদ্ভুত প্রতিশ্রুতি পূরণ করার জন্য।
কোনো প্রযুক্তির কার্যকারিতা স্পষ্ট করার আগেই সেটি বানানো বা মানিয়ে নেওয়া সাধারণত ব্যর্থ পণ্যের লক্ষণ (যেমন গুগল গ্লাস, অ্যাপল ভিশন প্রো, কিংবা মেটাভার্স)। কিন্তু গত তিন দশকে বহু শীর্ষ প্রযুক্তি স্টার্টআপ, কর্পোরেশন ও ভেঞ্চার ক্যাপিটাল ফার্ম এক উল্টো যুক্তিতে পরিচালিত হয়েছে—যা মেশিন লার্নিংয়ের ক্ষেত্রে আশ্চর্যজনকভাবে সফল প্রমাণিত হয়েছে।
এই সাফল্যের আংশিক কারণ ব্যক্তিত্বসম্পন্ন কিছু মানুষ—স্যাম অল্টম্যান ও ইলন মাস্কের মতো—যারা জনউচ্ছ্বাস তৈরি করার শিল্পকে পরিপূর্ণ করেছে। এই পরিস্থিতিতে AI–কে ঘিরে তৈরি হওয়া হাইপ নিছক নির্দোষ প্রচারণার চেয়ে অনেক বেশি। কী কী সম্ভব (যেমন দেবসদৃশ যন্ত্রের বশীভূত এক ভবিষ্যৎ সভ্যতা)—এমন প্রত্যাশা তৈরি করে কার্জওয়েল, হারারি ও তাঁদের অনুরূপরা আসলে পথ প্রশস্ত করছেন টেক সিইওদের তুলনামূলক বিনয়ী প্রতিশ্রুতি ও ভবিষ্যদ্বাণীর ব্যাপক জনগ্রহণযোগ্যতার জন্য (যেমন সম্পূর্ণ স্বয়ংচালিত গাড়ি, যা সেই কল্পিত আন্তঃনাক্ষত্রিক বহরের চেয়ে অনেক ছোট প্রতিশ্রুতি)।
কিন্তু এগুলো সবই এক ধরনের কার্টুন, যা শক্তিশালী হলেও সীমাবদ্ধ প্রযুক্তির বাস্তবতা থেকে বিচ্ছিন্ন। যদি AI নিয়ে একটি নিশ্চিত ভবিষ্যদ্বাণী করা যায়, তবে সেটি হলো—যে ক্ষেত্রেই এটি সফল প্রয়োগ পাবে, তা জনসচেতনতায় অবিরামভাবে ঠুকে দেওয়া হবে। কিন্তু হিসাব রাখা হবে না সেই সুযোগব্যয়ের, যা আসে এমন এক শিল্প থেকে, যেখানে সবকিছু বা কিছুই নয় এমন মনোভাব কাজ করে এবং যেখানে মেশিন লার্নিং আসলে যে নিরস সমস্যা ও দৈনন্দিন অদক্ষতা দূর করতে পারত, তা অবহেলিত হয়। ফলে সাধারণ মানুষের জীবন সামান্য হলেও উন্নত করার প্রকল্পকে বিসর্জন দেওয়া হচ্ছে এক অসম্ভব ইউটোপিয়ার সেবায় অচিন্তনীয় অপচয়ের বিনিময়ে।
রিটন খান
লেখক, সফটওয়্যার ইঞ্জিনিয়ার/এ.আই.বিহেভিয়োরাল রিসার্চার
সূত্রগ্রন্থঃ
Nexus: A Brief History of Information Networks From the Stone Age to AI
ইউভাল নোয়া হারারি
নিউ ইয়র্ক, এনওয়াই: র্যান্ডম হাউস, ২০২৪
The Singularity Is Nearer: When We Merge with AI
রে কার্জওয়েল
নিউ ইয়র্ক, এনওয়াই: ভাইকিং, ২০২৪
Genesis: Artificial Intelligence, Hope, and the Human Spirit
হেনরি এ. কিসিঞ্জার, ক্রেইগ মুন্ডি ও এরিক শ্মিট
নিউ ইয়র্ক, এনওয়াই: লিটল, ব্রাউন অ্যান্ড কোম্পানি, ২০২৪
AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference
অরবিন্দ নারায়ণন ও সায়াশ কাপুর
প্রিন্সটন, এনজে: প্রিন্সটন ইউনিভার্সিটি প্রেস, ২০২৪
Liang Wenfeng এর কোন উল্লেখ না দেখে অবাক হলাম। যে প্রথিতযশা AI companyগুলোর আসন টলিয়ে দিয়েছিল তার কোন উল্লেখ নেই, সেটা কি শুধুমাত্র সেই দেশটার জন্য?