জেনারেটিভ ডেটা ইন্টেলিজেন্স

কিভাবে মেশিন 'Grok' ডেটা? | কোয়ান্টা ম্যাগাজিন

তারিখ:

ভূমিকা

তাদের সমস্ত উজ্জ্বলতার জন্য, কৃত্রিম নিউরাল নেটওয়ার্কগুলি আগের মতোই অস্পষ্ট থাকে। এই নেটওয়ার্কগুলি বড় হওয়ার সাথে সাথে তাদের ক্ষমতাগুলি বিস্ফোরিত হয়, কিন্তু তাদের অভ্যন্তরীণ কাজগুলিকে বোঝানো সবসময়ই প্রায় অসম্ভব ছিল৷ গবেষকরা ক্রমাগত কোন অন্তর্দৃষ্টি খুঁজছেন যা তারা এই মডেলগুলিতে খুঁজে পেতে পারে।

কয়েক বছর আগে, তারা একটি নতুন আবিষ্কার করেছিল।

জানুয়ারী 2022-এ, ChatGPT-এর পিছনে কোম্পানি OpenAI-এর গবেষকরা, রিপোর্ট যে এই সিস্টেমগুলি, যখন ঘটনাক্রমে স্বাভাবিকের চেয়ে অনেক বেশি সময় ধরে ডেটা ব্যবহার করার অনুমতি দেওয়া হয়, তখন সমস্যা সমাধানের অনন্য উপায় তৈরি করে। সাধারণত, প্রকৌশলীরা যখন নিউরাল নেটওয়ার্কের বাইরে মেশিন লার্নিং মডেল তৈরি করেন — কৃত্রিম নিউরন নামে পরিচিত গণনার একক দ্বারা গঠিত — তারা একটি নির্দিষ্ট সময়ে প্রশিক্ষণ বন্ধ করার প্রবণতা রাখে, যাকে বলা হয় ওভারফিটিং শাসন। এটি তখনই যখন নেটওয়ার্কটি মূলত তার প্রশিক্ষণের ডেটা মুখস্থ করা শুরু করে এবং প্রায়শই নতুন, অদেখা তথ্যে সাধারণীকরণ করে না। কিন্তু যখন ওপেনএআই টিম ঘটনাক্রমে এই বিন্দুর বাইরে একটি ছোট নেটওয়ার্ক পথ প্রশিক্ষিত করে, তখন মনে হয়েছিল যে সমস্যাটির একটি বোঝাপড়া বিকাশ করেছে যা কেবল মুখস্ত করার বাইরে চলে গেছে - এটি হঠাৎ করেই যেকোন পরীক্ষার ডেটা উসকে দিতে পারে।

গবেষকরা এই ঘটনাটিকে "গ্রোকিং" নাম দিয়েছেন, একটি শব্দ যা বিজ্ঞান-কল্পকাহিনী লেখক রবার্ট এ. হেইনলেইন দ্বারা তৈরি করা হয়েছে যার অর্থ কিছু বোঝার জন্য "এত পুঙ্খানুপুঙ্খভাবে যে পর্যবেক্ষক পর্যবেক্ষণ করা প্রক্রিয়ার একটি অংশ হয়ে ওঠে।" ওভারট্রেনড নিউরাল নেটওয়ার্ক, নির্দিষ্ট গাণিতিক ক্রিয়াকলাপ সম্পাদন করার জন্য ডিজাইন করা হয়েছে, সংখ্যার সাধারণ গঠন শিখেছে এবং ফলাফলকে অভ্যন্তরীণ করেছে। এটা grokked এবং সমাধান হয়ে ওঠে.

"এটি খুব উত্তেজনাপূর্ণ এবং চিন্তা উদ্দীপক ছিল," বলেছেন মিখাইল বেলকিন ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের, সান দিয়েগো, যারা নিউরাল নেটওয়ার্কগুলির তাত্ত্বিক এবং অভিজ্ঞতামূলক বৈশিষ্ট্যগুলি অধ্যয়ন করে। "এটি অনেক ফলো-আপ কাজকে উৎসাহিত করেছে।"

প্রকৃতপক্ষে, অন্যরা ফলাফলের প্রতিলিপি করেছে এবং এমনকি তাদের বিপরীত-ইঞ্জিনিয়ার করেছে। অতি সাম্প্রতিক কাগজপত্রগুলি শুধুমাত্র পরিষ্কার করেনি যে এই নিউরাল নেটওয়ার্কগুলি যখন তারা গ্রোক করে তখন কী করছে বরং একটি নতুন লেন্সও প্রদান করেছে যার মাধ্যমে তাদের অভ্যন্তরীণ পরীক্ষা করা যায়। "গ্রোকিং সেটআপটি গভীর শিক্ষার বিভিন্ন দিক বোঝার জন্য একটি ভাল মডেল জীবের মতো," বলেন এরিক মিচউড ম্যাসাচুসেটস ইনস্টিটিউট অফ টেকনোলজির।

এই জীবের ভিতরে পিয়ারিং মাঝে মাঝে বেশ প্রকাশ করে। "আপনি শুধুমাত্র সুন্দর কাঠামো খুঁজে পেতে পারেন না, কিন্তু সেই সুন্দর কাঠামোটি অভ্যন্তরীণভাবে কী ঘটছে তা বোঝার জন্য গুরুত্বপূর্ণ," বলেছেন নীল নন্দ, এখন লন্ডনের Google DeepMind-এ।

সীমা ছাড়িয়ে

মৌলিকভাবে, একটি মেশিন লার্নিং মডেলের কাজ সহজ বলে মনে হয়: একটি প্রদত্ত ইনপুটকে একটি পছন্দসই আউটপুটে রূপান্তর করুন। এটি শেখার অ্যালগরিদমের কাজ হল সম্ভাব্য সর্বোত্তম ফাংশনের সন্ধান করা যা এটি করতে পারে। যেকোন প্রদত্ত মডেল শুধুমাত্র ফাংশনের একটি সীমিত সেট অ্যাক্সেস করতে পারে এবং সেই সেটটি প্রায়শই মডেলের প্যারামিটারের সংখ্যা দ্বারা নির্ধারিত হয়, যা নিউরাল নেটওয়ার্কের ক্ষেত্রে কৃত্রিম নিউরনের মধ্যে সংযোগের সংখ্যার সমান।

ভূমিকা

একটি নেটওয়ার্ক প্রশিক্ষণের সাথে সাথে এটি আরও জটিল ফাংশন শিখতে থাকে এবং প্রত্যাশিত আউটপুট এবং প্রকৃত একের মধ্যে পার্থক্য প্রশিক্ষণের ডেটার জন্য হ্রাস পেতে শুরু করে। আরও ভাল, এই অসঙ্গতি, যা ক্ষতি হিসাবে পরিচিত, পরীক্ষার ডেটার জন্যও কমতে শুরু করে, যা প্রশিক্ষণে ব্যবহৃত হয় না এমন নতুন ডেটা। কিন্তু কিছু সময়ে, মডেলটি ওভারফিট হতে শুরু করে, এবং যখন প্রশিক্ষণের ডেটার ক্ষতি কমতে থাকে, পরীক্ষার ডেটার ক্ষতি বাড়তে থাকে। সুতরাং, সাধারণত, যখন গবেষকরা নেটওয়ার্ক প্রশিক্ষণ বন্ধ করে দেয়।

ওপেনএআই-এর দল যখন একটি নিউরাল নেটওয়ার্ক কীভাবে গণিত করতে পারে তা অন্বেষণ করা শুরু করলে এটাই ছিল প্রচলিত প্রজ্ঞা। তারা একটি ছোট ব্যবহার ছিল ট্রান্সফরমার — একটি নেটওয়ার্ক আর্কিটেকচার যা সম্প্রতি বৃহৎ ভাষার মডেলে বিপ্লব ঘটিয়েছে — বিভিন্ন ধরণের মডুলার পাটিগণিত করতে, যেখানে আপনি একটি সীমিত সেট সংখ্যার সাথে কাজ করেন যা নিজের উপর ফিরে আসে। মডুলো 12, উদাহরণস্বরূপ, একটি ঘড়ির মুখে করা যেতে পারে: 11 + 2 = 1। দল দুটি সংখ্যা যোগ করার নেটওয়ার্ক উদাহরণ দেখিয়েছে, a এবং b, একটি আউটপুট উত্পাদন করতে, c, modulo 97 (97 সংখ্যা সহ একটি ঘড়ির মুখের সমতুল্য)। তারপর তারা অদেখা সংমিশ্রণে ট্রান্সফরমারটি পরীক্ষা করে a এবং b এটি সঠিকভাবে ভবিষ্যদ্বাণী করতে পারে কিনা তা দেখতে c.

প্রত্যাশিত হিসাবে, যখন নেটওয়ার্কটি ওভারফিটিং ব্যবস্থায় প্রবেশ করে, তখন প্রশিক্ষণের ডেটার ক্ষতি শূন্যের কাছাকাছি চলে আসে (এটি যা দেখেছিল তা মনে রাখতে শুরু করেছিল), এবং পরীক্ষার ডেটার ক্ষতি বাড়তে শুরু করেছিল। এটা সাধারণীকরণ ছিল না. "এবং তারপর একদিন, আমরা ভাগ্যবান হয়েছিলাম," দলের নেতা আলেথিয়া পাওয়ার বলেছেন, 2022 সালের সেপ্টেম্বরে কথা বলছি সান ফ্রান্সিসকোতে একটি সম্মেলনে। "এবং ভাগ্য দ্বারা, আমি ভুলে যাওয়া মানে।"

যে দলের সদস্য নেটওয়ার্ককে প্রশিক্ষণ দিচ্ছিলেন তিনি ছুটিতে যান এবং প্রশিক্ষণ বন্ধ করতে ভুলে যান। নেটওয়ার্কের এই সংস্করণটি প্রশিক্ষণ অব্যাহত থাকায়, এটি হঠাৎ অদেখা তথ্যের উপর সঠিক হয়ে ওঠে। স্বয়ংক্রিয় পরীক্ষা এই অপ্রত্যাশিত নির্ভুলতা টিমের বাকিদের কাছে প্রকাশ করেছিল এবং তারা শীঘ্রই বুঝতে পেরেছিল যে নেটওয়ার্কটি সংখ্যাগুলি সাজানোর চতুর উপায় খুঁজে পেয়েছে a এবং b. অভ্যন্তরীণভাবে, নেটওয়ার্ক কিছু উচ্চ-মাত্রিক স্থানের সংখ্যাগুলিকে প্রতিনিধিত্ব করে, কিন্তু যখন গবেষকরা এই সংখ্যাগুলিকে 2D স্পেসে প্রজেক্ট করেন এবং তাদের ম্যাপ করেন, তখন সংখ্যাগুলি একটি বৃত্ত তৈরি করে।

এই ছিল আশ্চর্যজনক. দলটি কখনই মডেলটিকে বলেনি যে এটি মডুলো 97 গণিত করছে, বা এমনকি মডুলোর অর্থ কী - তারা কেবল এটিকে পাটিগণিতের উদাহরণ দেখিয়েছে। মডেলটি কিছু গভীর, বিশ্লেষণাত্মক সমাধানে হোঁচট খেয়েছে বলে মনে হচ্ছে - একটি সমীকরণ যা এর সমস্ত সংমিশ্রণে সাধারণীকৃত a এবং bএমনকি প্রশিক্ষণের তথ্যের বাইরেও। নেটওয়ার্ক বিপর্যস্ত ছিল, এবং পরীক্ষার ডেটার নির্ভুলতা 100% পর্যন্ত বেড়েছে। "এটি অদ্ভুত," পাওয়ার তার শ্রোতাদের বলেছিলেন।

দলটি বিভিন্ন কাজ এবং বিভিন্ন নেটওয়ার্ক ব্যবহার করে ফলাফল যাচাই করেছে। আবিষ্কার আটকে গেল।

ঘড়ি এবং পিজা

কিন্তু নেটওয়ার্ক কি সমীকরণ খুঁজে পেয়েছিল? ওপেনএআই কাগজটি বলে নি, তবে ফলাফলটি নন্দার দৃষ্টি আকর্ষণ করেছিল। "নিউরাল নেটওয়ার্ক সম্পর্কে একটি মূল রহস্য এবং বিরক্তিকর বিষয় হল যে তারা যা করে তাতে তারা খুব ভাল, কিন্তু ডিফল্টরূপে, তারা কীভাবে কাজ করে সে সম্পর্কে আমাদের কোন ধারণা নেই," বলেছেন নন্দা, যার কাজ একজন প্রশিক্ষিত রিভার্স-ইঞ্জিনিয়ারিং এর উপর দৃষ্টি নিবদ্ধ করে। নেটওয়ার্ক কি অ্যালগরিদম শিখেছে তা বের করতে।

ওপেনএআই আবিষ্কারে নন্দা মুগ্ধ হয়েছিলেন এবং তিনি একটি নিউরাল নেটওয়ার্ক বাছাই করার সিদ্ধান্ত নিয়েছিলেন যা গ্রোক হয়ে গিয়েছিল। তিনি OpenAI নিউরাল নেটওয়ার্কের একটি আরও সহজ সংস্করণ ডিজাইন করেছেন যাতে তিনি মডেলের প্যারামিটারগুলি ঘনিষ্ঠভাবে পরীক্ষা করতে পারেন কারণ এটি মডুলার গাণিতিক করতে শিখেছে। তিনি একই আচরণ দেখেছিলেন: অতিরিক্ত ফিটিং যা সাধারণীকরণের পথ এবং পরীক্ষার নির্ভুলতায় আকস্মিক উন্নতি করেছিল। তার নেটওয়ার্কও একটি বৃত্তে সংখ্যা সাজিয়েছিল। এটি কিছুটা চেষ্টা করেছিল, কিন্তু নন্দা অবশেষে কেন তা খুঁজে বের করেছিল।

যখন এটি একটি বৃত্তের সংখ্যাগুলিকে প্রতিনিধিত্ব করছিল, নেটওয়ার্কটি কেবল একটি কিন্ডারগার্টনার একটি ঘড়ি দেখার মতো অঙ্কগুলি গণনা করছিল না: এটি কিছু পরিশীলিত গাণিতিক হেরফের করছে৷ নেটওয়ার্কের প্যারামিটারের মান অধ্যয়ন করে, নন্দ ও সহকর্মীরা প্রকাশ করেন যে এটি ঘড়ির সংখ্যাগুলিকে "বিচ্ছিন্ন ফুরিয়ার রূপান্তর" সম্পাদন করে যোগ করছে - সাইন এবং কোসাইনগুলির মতো ত্রিকোণমিতিক ফাংশন ব্যবহার করে সংখ্যাগুলিকে রূপান্তরিত করে এবং তারপর সমাধানে পৌঁছানোর জন্য ত্রিকোণমিতিক পরিচয় ব্যবহার করে এই মানগুলিকে হেরফের করে৷ অন্তত, এটি তার বিশেষ নেটওয়ার্ক কি করছিল.

যখন এমআইটিতে একটি দল অনুসরণ নন্দার কাজে, তারা দেখিয়েছে যে গ্রোকিং নিউরাল নেটওয়ার্ক সবসময় এই "ঘড়ি" অ্যালগরিদম আবিষ্কার করে না। কখনও কখনও, নেটওয়ার্কগুলি পরিবর্তে গবেষকরা যাকে "পিৎজা" অ্যালগরিদম বলে তা খুঁজে পায়। এই পদ্ধতিটি একটি পিজাকে স্লাইসে বিভক্ত এবং ক্রমানুসারে সংখ্যাযুক্ত কল্পনা করে। দুটি সংখ্যা যোগ করতে, পিজ্জার কেন্দ্র থেকে প্রশ্নযুক্ত সংখ্যাগুলিতে তীর আঁকার কল্পনা করুন, তারপর প্রথম দুটি তীর দ্বারা গঠিত কোণটিকে দ্বিখণ্ডিত করে এমন রেখাটি গণনা করুন। এই লাইনটি পিজ্জার কিছু স্লাইসের মাঝখান দিয়ে যায়: স্লাইসের সংখ্যাটি দুটি সংখ্যার যোগফল। এই ক্রিয়াকলাপগুলি সাইন এবং কোসাইনগুলির ত্রিকোণমিতিক এবং বীজগণিতিক ম্যানিপুলেশনের পরিপ্রেক্ষিতেও লেখা যেতে পারে a এবং b, এবং তারা তাত্ত্বিকভাবে ঘড়ির পদ্ধতির মতোই সঠিক।

ভূমিকা

"ঘড়ি এবং পিৎজা অ্যালগরিদম উভয়েরই এই বৃত্তাকার উপস্থাপনা রয়েছে," বলেছেন৷ জিমিং লিউ, MIT দলের একজন সদস্য। “কিন্তু … তারা কীভাবে এই সাইন এবং কোসাইনগুলিকে লিভারেজ করে তা আলাদা। তাই আমরা তাদের আলাদা অ্যালগরিদম বলি।"

এবং যে এখনও সব ছিল না. মডুলো গণিত করার জন্য অসংখ্য নেটওয়ার্ককে প্রশিক্ষণ দেওয়ার পরে, লিউ এবং সহকর্মীরা আবিষ্কার করেন যে এই নেটওয়ার্কগুলির দ্বারা আবিষ্কৃত প্রায় 40% অ্যালগরিদমগুলি পিজ্জা বা ঘড়ির অ্যালগরিদমের বিভিন্ন প্রকার। বাকি সময় নেটওয়ার্কগুলি কী করছে তা দলটি বোঝাতে সক্ষম হয়নি। পিৎজা এবং ঘড়ির অ্যালগরিদমগুলির জন্য, "এটি ঘটে যে এটি এমন কিছু খুঁজে পায় যা আমরা মানুষ ব্যাখ্যা করতে পারি," লিউ বলেছিলেন।

এবং একটি নেটওয়ার্ক সমস্যা গ্রোক করার সময় যে অ্যালগরিদমই শিখে না কেন, গবেষকদের সন্দেহের তুলনায় এটি সাধারণীকরণে আরও বেশি শক্তিশালী। যখন ইউনিভার্সিটি অব মেরিল্যান্ডের একটি দল একটি সহজ নিউরাল নেটওয়ার্ক খাওয়ানো এলোমেলো ত্রুটি সহ প্রশিক্ষণের ডেটা, নেটওয়ার্ক প্রথমে প্রত্যাশিতভাবে আচরণ করেছিল: প্রশিক্ষণের ডেটা, ত্রুটিগুলি এবং সমস্তকে ওভারফিট করে এবং অসংশোধিত পরীক্ষার ডেটাতে খারাপভাবে পারফর্ম করে৷ যাইহোক, একবার নেটওয়ার্কটি ধাক্কাধাক্কি করে এবং পরীক্ষার প্রশ্নের সঠিক উত্তর দিতে শুরু করলে, এটি ভুল এন্ট্রির জন্যও সঠিক উত্তর তৈরি করতে পারে, মুখস্থ করা ভুল উত্তরগুলি ভুলে গিয়ে এমনকি তার প্রশিক্ষণের ডেটাকেও সাধারণীকরণ করতে পারে। "আসলে এই ধরনের দুর্নীতির জন্য গুরুগম্ভীর কাজটি বেশ শক্তিশালী," বলেন দর্শিল দোশি, কাগজের লেখকদের একজন।

নিয়ন্ত্রণের জন্য যুদ্ধ

ফলস্বরূপ, গবেষকরা এখন সেই প্রক্রিয়াটি বুঝতে শুরু করেছেন যা একটি নেটওয়ার্কের ডেটা গ্রোকিং পর্যন্ত নিয়ে যায়। নন্দা গ্রোকিংয়ের আপাত বাহ্যিক আকস্মিকতাকে মুখস্থ থেকে সাধারণীকরণে ধীরে ধীরে অভ্যন্তরীণ রূপান্তরের ফলাফল হিসাবে দেখেন, যা নিউরাল নেটওয়ার্কের ভিতরে দুটি ভিন্ন অ্যালগরিদম ব্যবহার করে। যখন একটি নেটওয়ার্ক শেখা শুরু করে, তিনি বলেন, এটি প্রথমে সহজ মনে রাখার অ্যালগরিদম বের করে; যাইহোক, যদিও অ্যালগরিদমটি সহজ, তবে এটির জন্য যথেষ্ট সম্পদের প্রয়োজন, কারণ নেটওয়ার্ককে প্রশিক্ষণের ডেটার প্রতিটি উদাহরণ মনে রাখতে হবে। তবে এটি মুখস্থ করার সময়ও, নিউরাল নেটওয়ার্কের অংশগুলি সার্কিট গঠন শুরু করে যা সাধারণ সমাধান বাস্তবায়ন করে। দুটি অ্যালগরিদম প্রশিক্ষণের সময় সংস্থানগুলির জন্য প্রতিদ্বন্দ্বিতা করে, তবে নেটওয়ার্কটিকে নিয়মিতকরণ নামক একটি অতিরিক্ত উপাদান দিয়ে প্রশিক্ষণ দেওয়া হলে সাধারণীকরণ শেষ পর্যন্ত জয়ী হয়।

"নিয়মিতকরণ ধীরে ধীরে সমাধানকে সাধারণীকরণ সমাধানের দিকে নিয়ে যায়," লিউ বলেন। এটি এমন একটি প্রক্রিয়া যা মডেলের কার্যকরী ক্ষমতাকে হ্রাস করে — মডেলটি শিখতে পারে এমন ফাংশনের জটিলতা। যেহেতু নিয়মিতকরণ মডেলের জটিলতাকে ছাঁটাই করে, সাধারণীকরণ অ্যালগরিদম, যা কম জটিল, অবশেষে জয়লাভ করে। "সাধারণকরণ একই [স্তরের] কর্মক্ষমতার জন্য সহজ," নন্দা বলেন। অবশেষে, নিউরাল নেটওয়ার্ক মেমোরাইজিং অ্যালগরিদম বাতিল করে দেয়।

সুতরাং, যখন সাধারণীকরণের বিলম্বিত ক্ষমতা হঠাৎ আবির্ভূত হয় বলে মনে হচ্ছে, অভ্যন্তরীণভাবে নেটওয়ার্কের পরামিতিগুলি স্থিরভাবে সাধারণীকরণ অ্যালগরিদম শিখছে। এটি শুধুমাত্র তখনই যখন নেটওয়ার্ক উভয়ই সাধারণীকরণ অ্যালগরিদম শিখেছে এবং মুখস্থ করার অ্যালগরিদমটিকে সম্পূর্ণরূপে সরিয়ে ফেলেছে যা আপনি গ্রোকিং পেতে পারেন৷ "এটা সম্ভব যেগুলি হঠাৎ মনে হয় যেগুলি আসলে পৃষ্ঠের নীচে ধীরে ধীরে হতে পারে," নন্দা বলেছিলেন - একটি সমস্যা যা এখানেও এসেছে অন্যান্য মেশিন লার্নিং গবেষণা.

এই সাফল্য সত্ত্বেও, এটা মনে রাখা গুরুত্বপূর্ণ যে গ্রোকিং গবেষণা এখনও তার শৈশবকালে। এখনও অবধি, গবেষকরা শুধুমাত্র অত্যন্ত ছোট নেটওয়ার্কগুলি অধ্যয়ন করেছেন এবং এই ফলাফলগুলি বড়, আরও শক্তিশালী নেটওয়ার্কগুলির সাথে থাকবে কিনা তা স্পষ্ট নয়। বেলকিন আরও সতর্ক করেছেন যে মডুলার পাটিগণিত হল "সমুদ্রের একটি ড্রপ" আজকের নিউরাল নেটওয়ার্কগুলির দ্বারা করা বিভিন্ন কাজের তুলনায়। এই জাতীয় গণিতের জন্য একটি নিউরাল নেটওয়ার্কের সমাধান বিপরীত-ইঞ্জিনিয়ারিং সাধারণ নীতিগুলি বোঝার জন্য যথেষ্ট নাও হতে পারে যা এই নেটওয়ার্কগুলিকে সাধারণীকরণের দিকে চালিত করে। "গাছগুলি অধ্যয়ন করা দুর্দান্ত," বেলকিন বলেছিলেন। "তবে আমাদের বন অধ্যয়ন করতে হবে।"

তবুও, এই নেটওয়ার্কগুলির ভিতরে পিয়ার করার এবং বিশ্লেষণাত্মকভাবে তাদের বোঝার ক্ষমতার বিশাল প্রভাব রয়েছে। আমাদের বেশিরভাগের জন্য, ফুরিয়ার রূপান্তর এবং বৃত্তের দ্বিখণ্ডিত আর্কগুলি মডুলো সংযোজন করার জন্য একটি খুব অদ্ভুত উপায় - মানুষের নিউরনগুলি ঠিক এরকম ভাবে না। "কিন্তু আপনি যদি রৈখিক বীজগণিত থেকে তৈরি হয়ে থাকেন, তবে এটি আসলে এটির মতো করা অনেক অর্থপূর্ণ," নন্দা বলেছিলেন।

"এই অদ্ভুত [কৃত্রিম] মস্তিষ্ক আমাদের নিজেদের থেকে আলাদাভাবে কাজ করে," তিনি বলেছিলেন। “[তাদের] নিজস্ব নিয়ম ও কাঠামো আছে। একটি নিউরাল নেটওয়ার্ক কীভাবে চিন্তা করে তা আমাদের ভাবতে শিখতে হবে।"

স্পট_আইএমজি

সর্বশেষ বুদ্ধিমত্তা

স্পট_আইএমজি