মেশিন লার্নিং শব্দকোষ: জেনারেটিভ এআই

এই পৃষ্ঠায় জেনারেটিভ এআই শব্দকোষ রয়েছে। সকল শব্দকোষের জন্য এখানে ক্লিক করুন

অভিযোজন

#generativeAI

টিউনিং বা ফাইন-টিউনিং এর সমার্থক।

স্বয়ংক্রিয় মূল্যায়ন

#generativeAI

একটি মডেলের আউটপুট গুণমান বিচার করতে সফ্টওয়্যার ব্যবহার করে.

যখন মডেল আউটপুট তুলনামূলকভাবে সহজবোধ্য হয়, তখন একটি স্ক্রিপ্ট বা প্রোগ্রাম মডেলের আউটপুটকে সোনালী প্রতিক্রিয়ার সাথে তুলনা করতে পারে। এই ধরনের স্বয়ংক্রিয় মূল্যায়নকে কখনও কখনও প্রোগ্রামেটিক মূল্যায়ন বলা হয়। মেট্রিক্স যেমন ROUGE বা BLEU প্রায়ই প্রোগ্রামেটিক মূল্যায়নের জন্য উপযোগী।

যখন মডেল আউটপুট জটিল হয় বা এর কোনো সঠিক উত্তর থাকে না , তখন একটি স্বয়ংক্রিয় এমএল প্রোগ্রাম নামে পরিচিত একটি স্বয়ংক্রিয় মূল্যায়ন করে।

মানুষের মূল্যায়নের সাথে বৈসাদৃশ্য।

অটোরাটার মূল্যায়ন

#generativeAI
একটি জেনারেটিভ এআই মডেলের আউটপুটের গুণমান বিচার করার জন্য একটি হাইব্রিড প্রক্রিয়া যা মানুষের মূল্যায়নকে স্বয়ংক্রিয় মূল্যায়নের সাথে একত্রিত করে। একটি অটোরেটর হল একটি এমএল মডেল যা মানুষের মূল্যায়ন দ্বারা তৈরি ডেটার উপর প্রশিক্ষিত। আদর্শভাবে, একজন অটোরাটার একজন মানুষের মূল্যায়নকারীকে অনুকরণ করতে শেখে।

প্রি-বিল্ট অটোরেটর উপলব্ধ, তবে সেরা অটোরেটরগুলি বিশেষভাবে আপনি যে কাজটি মূল্যায়ন করছেন তার জন্য সূক্ষ্ম সুর করা হয়।

অটো রিগ্রেসিভ মডেল

#generativeAI

একটি মডেল যা তার নিজের পূর্বের ভবিষ্যদ্বাণীগুলির উপর ভিত্তি করে একটি ভবিষ্যদ্বাণী অনুমান করে৷ উদাহরণস্বরূপ, অটো-রিগ্রেসিভ ল্যাঙ্গুয়েজ মডেলগুলি পূর্বে ভবিষ্যদ্বাণী করা টোকেনের উপর ভিত্তি করে পরবর্তী টোকেনের পূর্বাভাস দেয়। সমস্ত ট্রান্সফরমার -ভিত্তিক বৃহৎ ভাষার মডেলগুলি স্বয়ংক্রিয়-রিগ্রেসিভ।

বিপরীতে, GAN- ভিত্তিক ইমেজ মডেলগুলি সাধারণত অটো-রিগ্রেসিভ হয় না কারণ তারা একটি একক ফরোয়ার্ড-পাসে একটি ছবি তৈরি করে এবং ধাপে ধাপে নয়। যাইহোক, কিছু ইমেজ জেনারেশন মডেল অটো-রিগ্রেসিভ কারণ তারা ধাপে ধাপে একটি ইমেজ তৈরি করে।

বেস মডেল

#generativeAI

একটি প্রাক-প্রশিক্ষিত মডেল যা নির্দিষ্ট কাজ বা অ্যাপ্লিকেশনগুলিকে মোকাবেলা করার জন্য সূক্ষ্ম-টিউনিংয়ের সূচনা পয়েন্ট হিসাবে কাজ করতে পারে।

এছাড়াও প্রাক-প্রশিক্ষিত মডেল এবং ভিত্তি মডেল দেখুন।

চেইন-অফ-থট প্রম্পটিং

#generativeAI

একটি প্রম্পট ইঞ্জিনিয়ারিং কৌশল যা একটি বৃহৎ ভাষা মডেল (LLM) কে ধাপে ধাপে তার যুক্তি ব্যাখ্যা করতে উৎসাহিত করে। উদাহরণস্বরূপ, দ্বিতীয় বাক্যে বিশেষ মনোযোগ দিয়ে নিম্নলিখিত প্রম্পটটি বিবেচনা করুন:

7 সেকেন্ডে প্রতি ঘন্টায় 0 থেকে 60 মাইল বেগে যাওয়া গাড়িতে একজন চালক কতটি জি ফোর্স অনুভব করবে? উত্তরে, সমস্ত প্রাসঙ্গিক গণনা দেখান।

এলএলএম এর প্রতিক্রিয়া সম্ভবত:

  • উপযুক্ত স্থানে 0, 60, এবং 7 মান প্লাগ করে পদার্থবিজ্ঞানের সূত্রের একটি ক্রম দেখান।
  • ব্যাখ্যা করুন কেন এটি সেই সূত্রগুলি বেছে নিয়েছে এবং বিভিন্ন ভেরিয়েবলের অর্থ কী।

চেইন-অফ-থট প্রম্পটিং এলএলএমকে সমস্ত গণনা সম্পাদন করতে বাধ্য করে, যা আরও সঠিক উত্তরের দিকে নিয়ে যেতে পারে। উপরন্তু, চেইন-অফ-থট প্রম্পটিং ব্যবহারকারীকে LLM-এর পদক্ষেপগুলি পরীক্ষা করতে সক্ষম করে উত্তরটি অর্থপূর্ণ কিনা তা নির্ধারণ করতে।

চ্যাট

#generativeAI

একটি ML সিস্টেমের সাথে একটি পিছনে এবং সামনে কথোপকথনের বিষয়বস্তু, সাধারণত একটি বড় ভাষা মডেল । একটি চ্যাটে পূর্ববর্তী মিথস্ক্রিয়া (আপনি কী টাইপ করেছেন এবং কীভাবে বৃহৎ ভাষার মডেল প্রতিক্রিয়া জানিয়েছেন) চ্যাটের পরবর্তী অংশগুলির প্রসঙ্গ হয়ে ওঠে।

একটি চ্যাটবট একটি বড় ভাষা মডেলের একটি অ্যাপ্লিকেশন।

প্রাসঙ্গিক ভাষা এম্বেডিং

#generativeAI

একটি এমবেডিং যা শব্দ এবং বাক্যাংশগুলিকে "বোঝার" কাছাকাছি আসে যেভাবে সাবলীল মানুষের বক্তারা করতে পারেন। প্রাসঙ্গিক ভাষা এম্বেডিং জটিল বাক্য গঠন, শব্দার্থবিদ্যা এবং প্রসঙ্গ বুঝতে পারে।

উদাহরণস্বরূপ, ইংরেজি শব্দ cow এর এমবেডিং বিবেচনা করুন। পুরানো এম্বেডিং যেমন word2vec ইংরেজি শব্দগুলিকে উপস্থাপন করতে পারে যেমন গাভী থেকে ষাঁড় পর্যন্ত এম্বেড করার স্থানের দূরত্ব ewe (স্ত্রী ভেড়া) থেকে রাম (পুরুষ ভেড়া) বা মহিলা থেকে পুরুষের দূরত্বের সমান। প্রাসঙ্গিক ভাষা এম্বেডিংগুলি স্বীকার করে আরও এক ধাপ এগিয়ে যেতে পারে যে ইংরেজি ভাষাভাষীরা কখনও কখনও গরু বা ষাঁড়ের অর্থ বোঝাতে গরু শব্দটি ব্যবহার করে।

প্রসঙ্গ উইন্ডো

#generativeAI

প্রদত্ত প্রম্পটে একটি মডেল প্রক্রিয়া করতে পারে এমন টোকেনের সংখ্যা। প্রসঙ্গ উইন্ডো যত বড় হবে, মডেলটি প্রম্পটে সুসংগত এবং সামঞ্জস্যপূর্ণ প্রতিক্রিয়া প্রদান করতে তত বেশি তথ্য ব্যবহার করতে পারে।

ডি

সরাসরি প্রম্পটিং

#generativeAI

জিরো-শট প্রম্পটিং- এর প্রতিশব্দ।

পাতন

#generativeAI

একটি মডেলের আকার ( শিক্ষক হিসাবে পরিচিত) একটি ছোট মডেলে (যা ছাত্র হিসাবে পরিচিত) হ্রাস করার প্রক্রিয়া যা যথাসম্ভব বিশ্বস্ততার সাথে আসল মডেলের ভবিষ্যদ্বাণীগুলিকে অনুকরণ করে৷ পাতন কার্যকর কারণ ছোট মডেলের বড় মডেলের (শিক্ষক) তুলনায় দুটি মূল সুবিধা রয়েছে:

  • দ্রুত অনুমান সময়
  • স্মৃতিশক্তি এবং শক্তির ব্যবহার হ্রাস

যাইহোক, ছাত্রের ভবিষ্যদ্বাণীগুলি সাধারণত শিক্ষকের ভবিষ্যদ্বাণীগুলির মতো ভাল হয় না।

ডিস্টিলেশন শিক্ষার্থী এবং শিক্ষক মডেলের ভবিষ্যদ্বাণীগুলির আউটপুটগুলির মধ্যে পার্থক্যের উপর ভিত্তি করে ক্ষতির কার্যকারিতা কমাতে ছাত্র মডেলকে প্রশিক্ষণ দেয়।

নিম্নোক্ত পদগুলির সাথে পাতনের তুলনা করুন এবং বৈসাদৃশ্য করুন:

আরও তথ্যের জন্য এলএলএম দেখুন: মেশিন লার্নিং ক্র্যাশ কোর্সে ফাইন-টিউনিং, ডিস্টিলেশন এবং প্রম্পট ইঞ্জিনিয়ারিং

evas

#generativeAI
#মেট্রিক

প্রাথমিকভাবে এলএলএম মূল্যায়নের সংক্ষিপ্ত রূপ হিসাবে ব্যবহৃত হয়। আরও বিস্তৃতভাবে, ইভাল হল যেকোনো ধরনের মূল্যায়নের সংক্ষিপ্ত রূপ।

মূল্যায়ন

#generativeAI
#মেট্রিক

একটি মডেলের গুণমান পরিমাপ করার বা একে অপরের সাথে বিভিন্ন মডেলের তুলনা করার প্রক্রিয়া।

একটি তত্ত্বাবধানে থাকা মেশিন লার্নিং মডেলের মূল্যায়ন করতে, আপনি সাধারণত এটিকে একটি বৈধতা সেট এবং একটি পরীক্ষা সেটের বিপরীতে বিচার করেন। একটি LLM মূল্যায়ন সাধারণত বিস্তৃত গুণমান এবং নিরাপত্তা মূল্যায়ন জড়িত।

বাস্তবতা

#generativeAI

এমএল বিশ্বের মধ্যে, এমন একটি সম্পত্তি যা একটি মডেল বর্ণনা করে যার আউটপুট বাস্তবতার উপর ভিত্তি করে। বাস্তবতা একটি মেট্রিকের পরিবর্তে একটি ধারণা। উদাহরণস্বরূপ, ধরুন আপনি একটি বড় ভাষা মডেলে নিম্নলিখিত প্রম্পট পাঠান:

টেবিল লবণের রাসায়নিক সূত্র কি?

বাস্তবতা অপ্টিমাইজ করে একটি মডেল সাড়া দেবে:

NaCl

এটা অনুমান করতে প্রলুব্ধ হয় যে সমস্ত মডেল বাস্তবতার উপর ভিত্তি করে হওয়া উচিত। যাইহোক, কিছু প্রম্পট, যেমন নিম্নলিখিত, একটি জেনারেটিভ এআই মডেলকে বাস্তবতার পরিবর্তে সৃজনশীলতাকে অপ্টিমাইজ করতে বাধ্য করা উচিত।

আমাকে একজন মহাকাশচারী এবং একটি শুঁয়োপোকা সম্পর্কে একটি লিমেরিক বলুন।

এটি অসম্ভাব্য যে ফলস্বরূপ লিমেরিক বাস্তবতার উপর ভিত্তি করে হবে।

স্থলতার সাথে বৈসাদৃশ্য।

দ্রুত ক্ষয়

#generativeAI

এলএলএম- এর কর্মক্ষমতা উন্নত করার জন্য একটি প্রশিক্ষণ কৌশল। দ্রুত ক্ষয় হল প্রশিক্ষণের সময় শেখার হার দ্রুত হ্রাস করা। এই কৌশলটি মডেলটিকে প্রশিক্ষণের ডেটাতে ওভারফিটিং থেকে আটকাতে সাহায্য করে এবং সাধারণীকরণ উন্নত করে।

কয়েক শট প্রম্পটিং

#generativeAI

একটি প্রম্পট যাতে একাধিক (একটি "কয়েক") উদাহরণ রয়েছে যা প্রদর্শন করে যে কীভাবে বড় ভাষা মডেলের প্রতিক্রিয়া জানানো উচিত। উদাহরণস্বরূপ, নিম্নলিখিত দীর্ঘ প্রম্পটে দুটি উদাহরণ রয়েছে যা একটি বৃহৎ ভাষার মডেল দেখাচ্ছে কিভাবে একটি প্রশ্নের উত্তর দিতে হয়।

এক প্রম্পটের অংশ নোট
নির্দিষ্ট দেশের সরকারী মুদ্রা কি? যে প্রশ্নটির উত্তর আপনি LLM করতে চান।
ফ্রান্স: EUR একটি উদাহরণ.
যুক্তরাজ্য: জিবিপি আরেকটি উদাহরণ।
ভারত: প্রকৃত প্রশ্ন.

কিছু-শট প্রম্পটিং সাধারণত জিরো-শট প্রম্পটিং এবং ওয়ান-শট প্রম্পটিংয়ের চেয়ে বেশি পছন্দসই ফলাফল দেয়। যাইহোক, অল্প-শট প্রম্পটিংয়ের জন্য একটি দীর্ঘ প্রম্পট প্রয়োজন।

ফিউ-শট প্রম্পটিং হল প্রম্পট-ভিত্তিক শিক্ষার জন্য প্রয়োগ করা কয়েক-শট লার্নিংয়ের একটি রূপ।

আরও তথ্যের জন্য মেশিন লার্নিং ক্র্যাশ কোর্সে প্রম্পট ইঞ্জিনিয়ারিং দেখুন।

ফাইন-টিউনিং

#generativeAI

একটি নির্দিষ্ট ব্যবহারের ক্ষেত্রে এর পরামিতিগুলিকে পরিমার্জিত করার জন্য একটি প্রাক-প্রশিক্ষিত মডেলে একটি দ্বিতীয়, টাস্ক-নির্দিষ্ট প্রশিক্ষণ পাস। উদাহরণস্বরূপ, কিছু বড় ভাষা মডেলের জন্য সম্পূর্ণ প্রশিক্ষণের ক্রম নিম্নরূপ:

  1. প্রাক-প্রশিক্ষণ: একটি বিশাল সাধারণ ডেটাসেটে একটি বৃহৎ ভাষার মডেলকে প্রশিক্ষণ দিন, যেমন সমস্ত ইংরেজি ভাষার উইকিপিডিয়া পৃষ্ঠা।
  2. ফাইন-টিউনিং: একটি নির্দিষ্ট কাজ করার জন্য প্রাক-প্রশিক্ষিত মডেলকে প্রশিক্ষণ দিন, যেমন মেডিকেল প্রশ্নের উত্তর দেওয়া। ফাইন-টিউনিংয়ে সাধারণত নির্দিষ্ট কাজের উপর দৃষ্টি নিবদ্ধ করে শত শত বা হাজার হাজার উদাহরণ জড়িত থাকে।

আরেকটি উদাহরণ হিসাবে, একটি বড় ইমেজ মডেলের জন্য সম্পূর্ণ প্রশিক্ষণের ক্রম নিম্নরূপ:

  1. প্রাক-প্রশিক্ষণ: একটি বিশাল সাধারণ ইমেজ ডেটাসেটে একটি বড় ইমেজ মডেলকে প্রশিক্ষণ দিন, যেমন উইকিমিডিয়া কমন্সের সমস্ত ছবি।
  2. ফাইন-টিউনিং: একটি নির্দিষ্ট কাজ সম্পাদন করার জন্য পূর্ব-প্রশিক্ষিত মডেলকে প্রশিক্ষণ দিন, যেমন অর্কাসের ছবি তৈরি করা।

ফাইন-টিউনিং নিম্নলিখিত কৌশলগুলির যেকোন সংমিশ্রণকে অন্তর্ভুক্ত করতে পারে:

  • প্রাক-প্রশিক্ষিত মডেলের বিদ্যমান পরামিতিগুলির সমস্ত পরিবর্তন করা। একে কখনও কখনও ফুল ফাইন-টিউনিং বলা হয়।
  • অন্যান্য বিদ্যমান পরামিতিগুলি অপরিবর্তিত রেখে (সাধারণত, ইনপুট স্তরের সবচেয়ে কাছের স্তরগুলি) রেখে শুধুমাত্র প্রাক-প্রশিক্ষিত মডেলের বিদ্যমান প্যারামিটারগুলির কিছু পরিবর্তন করা (সাধারণত, আউটপুট স্তরের নিকটতম স্তরগুলি)। প্যারামিটার-দক্ষ টিউনিং দেখুন।
  • আরও স্তর যুক্ত করা হচ্ছে, সাধারণত আউটপুট স্তরের নিকটতম বিদ্যমান স্তরগুলির উপরে।

ফাইন-টিউনিং হল ট্রান্সফার লার্নিং এর একটি ফর্ম। যেমন, ফাইন-টিউনিং একটি ভিন্ন লস ফাংশন ব্যবহার করতে পারে বা প্রাক-প্রশিক্ষিত মডেলকে প্রশিক্ষিত করতে ব্যবহৃত মডেলের তুলনায় ভিন্ন মডেলের ধরন ব্যবহার করতে পারে। উদাহরণস্বরূপ, আপনি একটি রিগ্রেশন মডেল তৈরি করতে একটি প্রাক-প্রশিক্ষিত বড় ইমেজ মডেলকে সূক্ষ্ম-টিউন করতে পারেন যা একটি ইনপুট চিত্রে পাখির সংখ্যা ফেরত দেয়।

নিম্নলিখিত পদগুলির সাথে ফাইন-টিউনিং তুলনা করুন এবং বৈসাদৃশ্য করুন:

আরও তথ্যের জন্য মেশিন লার্নিং ক্র্যাশ কোর্সে ফাইন-টিউনিং দেখুন।

ফ্ল্যাশ মডেল

#generativeAI

তুলনামূলকভাবে ছোট মিথুন মডেলের একটি পরিবার গতি এবং কম বিলম্বের জন্য অপ্টিমাইজ করা হয়েছে৷ ফ্ল্যাশ মডেলগুলি বিস্তৃত অ্যাপ্লিকেশনের জন্য ডিজাইন করা হয়েছে যেখানে দ্রুত প্রতিক্রিয়া এবং উচ্চ থ্রুপুট অত্যন্ত গুরুত্বপূর্ণ।

ভিত্তি মডেল

#generativeAI
#মেট্রিক

একটি বিশাল এবং বৈচিত্র্যময় প্রশিক্ষণ সেটে প্রশিক্ষিত একটি খুব বড় প্রাক-প্রশিক্ষিত মডেল । একটি ভিত্তি মডেল নিম্নলিখিত উভয় করতে পারে:

  • অনুরোধের বিস্তৃত পরিসরে ভাল সাড়া দিন।
  • অতিরিক্ত ফাইন-টিউনিং বা অন্যান্য কাস্টমাইজেশনের জন্য একটি বেস মডেল হিসাবে পরিবেশন করুন।

অন্য কথায়, একটি ফাউন্ডেশন মডেল ইতিমধ্যেই একটি সাধারণ অর্থে খুব সক্ষম তবে একটি নির্দিষ্ট কাজের জন্য আরও বেশি উপযোগী হওয়ার জন্য আরও কাস্টমাইজ করা যেতে পারে।

সাফল্যের ভগ্নাংশ

#generativeAI
#মেট্রিক

একটি ML মডেলের তৈরি করা পাঠ্য মূল্যায়নের জন্য একটি মেট্রিক৷ সাফল্যের ভগ্নাংশ হল "সফল" জেনারেট করা টেক্সট আউটপুটের সংখ্যাকে জেনারেট করা টেক্সট আউটপুটের মোট সংখ্যা দিয়ে ভাগ করা হয়। উদাহরণস্বরূপ, যদি একটি বড় ভাষা মডেল কোডের 10 টি ব্লক তৈরি করে, যার মধ্যে পাঁচটি সফল হয়, তাহলে সাফল্যের ভগ্নাংশ হবে 50%।

যদিও সাফল্যের ভগ্নাংশ পরিসংখ্যান জুড়ে বিস্তৃতভাবে কার্যকর, ML-এর মধ্যে, এই মেট্রিকটি প্রাথমিকভাবে কোড জেনারেশন বা গণিত সমস্যাগুলির মতো যাচাইযোগ্য কাজগুলি পরিমাপের জন্য দরকারী।

জি

মিথুন

#generativeAI

Google-এর সবচেয়ে উন্নত AI সমন্বিত ইকোসিস্টেম। এই ইকোসিস্টেমের উপাদানগুলির মধ্যে রয়েছে:

  • বিভিন্ন মিথুন মডেল
  • মিথুন মডেলের ইন্টারেক্টিভ কথোপকথন ইন্টারফেস। ব্যবহারকারীরা প্রম্পট টাইপ করে এবং মিথুন সেই প্রম্পটে সাড়া দেয়।
  • বিভিন্ন জেমিনি API
  • মিথুন মডেলের উপর ভিত্তি করে বিভিন্ন ব্যবসায়িক পণ্য; উদাহরণস্বরূপ, গুগল ক্লাউডের জন্য মিথুন

মিথুন মডেল

#generativeAI

গুগলের অত্যাধুনিক ট্রান্সফরমার -ভিত্তিক মাল্টিমডাল মডেল । মিথুন মডেলগুলি বিশেষভাবে এজেন্টদের সাথে সংহত করার জন্য ডিজাইন করা হয়েছে৷

ব্যবহারকারীরা মিথুন মডেলের সাথে ইন্টারেক্টিভ ডায়ালগ ইন্টারফেস এবং SDK-এর মাধ্যমে বিভিন্ন উপায়ে যোগাযোগ করতে পারে।

জেমা

#generativeAI

মিথুন মডেল তৈরি করতে ব্যবহৃত একই গবেষণা এবং প্রযুক্তি থেকে তৈরি হালকা ওজনের খোলা মডেলের একটি পরিবার। বেশ কয়েকটি ভিন্ন জেমা মডেল উপলব্ধ, প্রতিটি বিভিন্ন বৈশিষ্ট্য প্রদান করে, যেমন দৃষ্টি, কোড, এবং নির্দেশাবলী অনুসরণ করে। বিস্তারিত জানার জন্য জেমা দেখুন।

GenAI বা genAI

#generativeAI

জেনারেটিভ এআই- এর সংক্ষিপ্ত রূপ।

তৈরি করা পাঠ্য

#generativeAI

সাধারণভাবে, একটি ML মডেল আউটপুট যে পাঠ্য. বৃহৎ ভাষার মডেলের মূল্যায়ন করার সময়, কিছু মেট্রিক্স উত্পন্ন পাঠ্যকে রেফারেন্স পাঠ্যের সাথে তুলনা করে। উদাহরণস্বরূপ, ধরুন আপনি একটি এমএল মডেল ফরাসি থেকে ডাচ ভাষায় কতটা কার্যকরভাবে অনুবাদ করে তা নির্ধারণ করার চেষ্টা করছেন। এই ক্ষেত্রে:

  • জেনারেট করা পাঠ্য হল ডাচ অনুবাদ যা ML মডেল আউটপুট করে।
  • রেফারেন্স টেক্সট হল ডাচ অনুবাদ যা একজন মানব অনুবাদক (বা সফ্টওয়্যার) তৈরি করে।

মনে রাখবেন কিছু মূল্যায়ন কৌশল রেফারেন্স টেক্সট জড়িত না.

জেনারেটিভ এআই

#generativeAI

কোনো আনুষ্ঠানিক সংজ্ঞা ছাড়াই একটি উদীয়মান রূপান্তরমূলক ক্ষেত্র। এটি বলেছে, বেশিরভাগ বিশেষজ্ঞরা সম্মত হন যে জেনারেটিভ এআই মডেলগুলি নিম্নলিখিত সমস্ত সামগ্রী তৈরি করতে পারে ("উত্পন্ন"):

  • জটিল
  • সুসঙ্গত
  • মূল

জেনারেটিভ এআই-এর উদাহরণগুলির মধ্যে রয়েছে:

  • বড় ভাষা মডেল , যা পরিশীলিত মূল পাঠ্য তৈরি করতে পারে এবং প্রশ্নের উত্তর দিতে পারে।
  • ইমেজ জেনারেশন মডেল, যা অনন্য ইমেজ তৈরি করতে পারে।
  • অডিও এবং সঙ্গীত প্রজন্মের মডেল, যা মূল সঙ্গীত রচনা করতে পারে বা বাস্তবসম্মত বক্তৃতা তৈরি করতে পারে।
  • ভিডিও জেনারেশন মডেল, যা আসল ভিডিও তৈরি করতে পারে।

LSTMs এবং RNN সহ কিছু আগের প্রযুক্তিও আসল এবং সুসংগত বিষয়বস্তু তৈরি করতে পারে। কিছু বিশেষজ্ঞ এই আগের প্রযুক্তিগুলিকে জেনারেটিভ AI হিসাবে দেখেন, অন্যরা মনে করেন যে সত্যিকারের জেনারেটিভ AI-এর জন্য আগের প্রযুক্তিগুলি তৈরি করতে পারে তার চেয়ে আরও জটিল আউটপুট প্রয়োজন।

ভবিষ্যদ্বাণীমূলক ML এর সাথে বৈসাদৃশ্য।

সুবর্ণ প্রতিক্রিয়া

#generativeAI

একটি প্রতিক্রিয়া ভাল হতে পরিচিত. উদাহরণস্বরূপ, নিম্নলিখিত প্রম্পট দেওয়া হয়েছে:

2 + 2

সুবর্ণ প্রতিক্রিয়া আশা করা যায়:

4

এইচ

মানুষের মূল্যায়ন

#generativeAI

একটি প্রক্রিয়া যেখানে লোকেরা একটি এমএল মডেলের আউটপুটের গুণমান বিচার করে; উদাহরণস্বরূপ, দ্বিভাষিক লোকেদের একটি ML অনুবাদ মডেলের গুণমান বিচার করা। মানুষের মূল্যায়ন বিশেষ করে এমন মডেল বিচার করার জন্য উপযোগী যেগুলোর কোনো সঠিক উত্তর নেই।

স্বয়ংক্রিয় মূল্যায়ন এবং অটোরাটার মূল্যায়নের সাথে বৈসাদৃশ্য।

হিউম্যান ইন দ্য লুপ (HITL)

#generativeAI

একটি ঢিলেঢালাভাবে সংজ্ঞায়িত বাগধারা যার অর্থ নিম্নলিখিত যে কোনো একটি হতে পারে:

  • জেনারেটিভ এআই আউটপুটকে সমালোচনামূলক বা সন্দেহজনকভাবে দেখার নীতি।
  • মানুষ একটি মডেলের আচরণকে আকৃতি, মূল্যায়ন এবং পরিমার্জন করতে সাহায্য করে তা নিশ্চিত করার জন্য একটি কৌশল বা সিস্টেম। একজন মানুষকে লুপের মধ্যে রাখা একটি AI কে মেশিন বুদ্ধিমত্তা এবং মানুষের বুদ্ধিমত্তা উভয় থেকে উপকৃত করতে সক্ষম করে। উদাহরণস্বরূপ, একটি সিস্টেম যেখানে একটি AI কোড তৈরি করে যা সফ্টওয়্যার ইঞ্জিনিয়াররা তারপর পর্যালোচনা করে একটি মানব-ইন-লুপ সিস্টেম।

আমি

প্রেক্ষাপটে শিক্ষা

#generativeAI

কয়েক শট প্রম্পটিং এর সমার্থক।

অনুমান

#মৌলিক
#generativeAI

প্রথাগত মেশিন লার্নিংয়ে, লেবেলবিহীন উদাহরণে একটি প্রশিক্ষিত মডেল প্রয়োগ করে ভবিষ্যদ্বাণী করার প্রক্রিয়া। আরও জানতে ইন্ট্রো টু এমএল কোর্সে সুপারভাইজড লার্নিং দেখুন।

বৃহৎ ভাষার মডেলগুলিতে , অনুমান হল একটি ইনপুট প্রম্পটে প্রতিক্রিয়া তৈরি করতে একটি প্রশিক্ষিত মডেল ব্যবহার করার প্রক্রিয়া।

পরিসংখ্যানে ইনফারেন্সের কিছুটা ভিন্ন অর্থ রয়েছে। বিস্তারিত জানার জন্য পরিসংখ্যানগত অনুমানের উপর উইকিপিডিয়া নিবন্ধটি দেখুন।

নির্দেশ টিউনিং

#generativeAI

ফাইন-টিউনিংয়ের একটি ফর্ম যা নির্দেশাবলী অনুসরণ করার জন্য একটি জেনারেটিভ এআই মডেলের ক্ষমতাকে উন্নত করে। ইন্সট্রাকশন টিউনিং এর মধ্যে একটি মডেলকে নির্দেশনা প্রম্পটের একটি সিরিজের প্রশিক্ষণ দেওয়া হয়, সাধারণত বিভিন্ন ধরনের কাজ কভার করে। ফলস্বরূপ নির্দেশ-সুরিত মডেলটি বিভিন্ন ধরনের কাজ জুড়ে জিরো-শট প্রম্পটে দরকারী প্রতিক্রিয়া তৈরি করে।

এর সাথে তুলনা এবং বৈসাদৃশ্য:

এল

বিলম্ব

#generativeAI

একটি মডেলের ইনপুট প্রক্রিয়া করতে এবং প্রতিক্রিয়া তৈরি করতে যে সময় লাগে৷ একটি উচ্চ লেটেন্সি প্রতিক্রিয়া কম লেটেন্সি প্রতিক্রিয়ার চেয়ে বেশি সময় নেয়৷

বৃহৎ ভাষার মডেলগুলির বিলম্বিততাকে প্রভাবিত করে এমন কারণগুলির মধ্যে রয়েছে:

  • ইনপুট এবং আউটপুট [ টোকেন ] দৈর্ঘ্য
  • মডেল জটিলতা
  • মডেলটি যে পরিকাঠামোতে চলে

প্রতিক্রিয়াশীল এবং ব্যবহারকারী-বান্ধব অ্যাপ্লিকেশন তৈরি করার জন্য বিলম্বের জন্য অপ্টিমাইজ করা অত্যন্ত গুরুত্বপূর্ণ।

এলএলএম

#generativeAI

বড় ভাষার মডেলের সংক্ষিপ্ত রূপ।

এলএলএম মূল্যায়ন (ইভাল)

#generativeAI
#মেট্রিক

বড় ভাষা মডেল (LLMs) এর কর্মক্ষমতা মূল্যায়ন করার জন্য মেট্রিক্স এবং বেঞ্চমার্কের একটি সেট। উচ্চ স্তরে, এলএলএম মূল্যায়ন:

  • এলএলএম-এর উন্নতি প্রয়োজন এমন ক্ষেত্রগুলি চিহ্নিত করতে গবেষকদের সাহায্য করুন।
  • বিভিন্ন এলএলএম তুলনা করতে এবং একটি নির্দিষ্ট কাজের জন্য সেরা এলএলএম সনাক্ত করতে কার্যকর।
  • LLM গুলি নিরাপদ এবং ব্যবহারের জন্য নৈতিক তা নিশ্চিত করতে সাহায্য করুন৷

আরও তথ্যের জন্য মেশিন লার্নিং ক্র্যাশ কোর্সে বড় ভাষা মডেল (এলএলএম) দেখুন।

LoRA

#generativeAI

নিম্ন-র্যাঙ্ক অভিযোজনযোগ্যতার সংক্ষিপ্ত রূপ।

নিম্ন-র্যাঙ্ক অভিযোজনযোগ্যতা (LoRA)

#generativeAI

সূক্ষ্ম টিউনিংয়ের জন্য একটি প্যারামিটার-দক্ষ কৌশল যা মডেলের প্রাক-প্রশিক্ষিত ওজনগুলিকে "হিমায়িত" করে (যেমন সেগুলি আর পরিবর্তন করা যায় না) এবং তারপরে মডেলের মধ্যে প্রশিক্ষণযোগ্য ওজনের একটি ছোট সেট সন্নিবেশ করায়। প্রশিক্ষণযোগ্য ওজনের এই সেটটি ("আপডেট ম্যাট্রিক্স" নামেও পরিচিত) বেস মডেলের তুলনায় যথেষ্ট ছোট এবং তাই প্রশিক্ষন করা অনেক দ্রুত।

LoRA নিম্নলিখিত সুবিধা প্রদান করে:

  • ডোমেনের জন্য একটি মডেলের ভবিষ্যদ্বাণীর গুণমান উন্নত করে যেখানে সূক্ষ্ম টিউনিং প্রয়োগ করা হয়।
  • একটি মডেলের সমস্ত প্যারামিটার সূক্ষ্ম-টিউন করার প্রয়োজন হয় এমন কৌশলগুলির চেয়ে দ্রুত ফাইন-টিউন।
  • একই বেস মডেল ভাগ করে নেওয়া একাধিক বিশেষ মডেলের একযোগে পরিবেশন সক্ষম করে অনুমানের গণনামূলক খরচ হ্রাস করে।

এম

মেশিন অনুবাদ

#generativeAI

একটি মানুষের ভাষা থেকে অন্য মানুষের ভাষায় পাঠ্য রূপান্তর করতে সফ্টওয়্যার (সাধারণত, একটি মেশিন লার্নিং মডেল) ব্যবহার করে, উদাহরণস্বরূপ, ইংরেজি থেকে জাপানি ভাষায়।

গড় নির্ভুলতা k এ গড় (mAP@k)

#generativeAI
#মেট্রিক

একটি বৈধতা ডেটাসেট জুড়ে k স্কোরে সমস্ত গড় নির্ভুলতার পরিসংখ্যানগত গড়। k-এ গড় গড় নির্ভুলতার একটি ব্যবহার হল একটি সুপারিশ সিস্টেম দ্বারা উত্পন্ন সুপারিশের গুণমান বিচার করা।

যদিও "গড় গড়" শব্দগুচ্ছ অপ্রয়োজনীয় শোনায়, মেট্রিকের নামটি উপযুক্ত। সর্বোপরি, এই মেট্রিকটি k মানগুলিতে একাধিক গড় নির্ভুলতার গড় খুঁজে পায়।

বিশেষজ্ঞদের মিশ্রণ

#generativeAI

একটি প্রদত্ত ইনপুট টোকেন বা উদাহরণ প্রক্রিয়া করার জন্য শুধুমাত্র এর পরামিতিগুলির একটি উপসেট (একজন বিশেষজ্ঞ হিসাবে পরিচিত) ব্যবহার করে নিউরাল নেটওয়ার্ক দক্ষতা বাড়ানোর একটি স্কিম। একটি গেটিং নেটওয়ার্ক প্রতিটি ইনপুট টোকেন বা উদাহরণ সঠিক বিশেষজ্ঞের কাছে পাঠায়।

বিস্তারিত জানার জন্য, নিচের যে কোনো একটি পেপার দেখুন:

এমএমআইটি

#generativeAI

মাল্টিমোডাল নির্দেশের সংক্ষিপ্ত রূপ।

মডেল ক্যাসকেডিং

#generativeAI

একটি সিস্টেম যা একটি নির্দিষ্ট অনুমান প্রশ্নের জন্য আদর্শ মডেল বেছে নেয়।

অনেক বড় (প্রচুর প্যারামিটার ) থেকে অনেক ছোট (অনেক কম পরামিতি) পর্যন্ত মডেলের একটি গ্রুপ কল্পনা করুন। খুব বড় মডেল ছোট মডেলের তুলনায় অনুমান সময়ে বেশি কম্পিউটেশনাল রিসোর্স ব্যবহার করে। যাইহোক, খুব বড় মডেলগুলি সাধারণত ছোট মডেলের তুলনায় আরও জটিল অনুরোধগুলি অনুমান করতে পারে। মডেল ক্যাসকেডিং অনুমান কোয়েরির জটিলতা নির্ধারণ করে এবং তারপর অনুমান সম্পাদনের জন্য উপযুক্ত মডেল বেছে নেয়। মডেল ক্যাসকেডিংয়ের প্রধান অনুপ্রেরণা হল সাধারণভাবে ছোট মডেল নির্বাচন করে অনুমান খরচ কমানো, এবং আরও জটিল প্রশ্নের জন্য শুধুমাত্র একটি বড় মডেল নির্বাচন করা।

কল্পনা করুন যে একটি ছোট মডেল একটি ফোনে চলে এবং সেই মডেলের একটি বড় সংস্করণ একটি দূরবর্তী সার্ভারে চলে। ভাল মডেল ক্যাসকেডিং ছোট মডেলটিকে সহজ অনুরোধগুলি পরিচালনা করতে সক্ষম করে এবং জটিল অনুরোধগুলি পরিচালনা করার জন্য শুধুমাত্র দূরবর্তী মডেলটিকে কল করে খরচ এবং বিলম্বতা হ্রাস করে৷

এছাড়াও মডেল রাউটার দেখুন।

মডেল রাউটার

#generativeAI

অ্যালগরিদম যা মডেল ক্যাসকেডিং-অনুমানের জন্য আদর্শ মডেল নির্ধারণ করে। একটি মডেল রাউটার নিজেই সাধারণত একটি মেশিন লার্নিং মডেল যা ধীরে ধীরে শেখে কিভাবে একটি প্রদত্ত ইনপুটের জন্য সেরা মডেল বাছাই করা যায়। যাইহোক, একটি মডেল রাউটার কখনও কখনও একটি সহজ, নন-মেশিন লার্নিং অ্যালগরিদম হতে পারে।

MOE

#generativeAI

বিশেষজ্ঞদের মিশ্রণের সংক্ষিপ্ত রূপ।

এমটি

#generativeAI

মেশিন অনুবাদের সংক্ষিপ্ত রূপ।

এন

ন্যানো

#generativeAI

একটি অপেক্ষাকৃত ছোট মিথুন মডেল যা ডিভাইসে ব্যবহারের জন্য ডিজাইন করা হয়েছে। বিস্তারিত জানার জন্য জেমিনি ন্যানো দেখুন।

এছাড়াও প্রো এবং আল্ট্রা দেখুন।

সঠিক উত্তর নেই (NORA)

#generativeAI

একাধিক সঠিক প্রতিক্রিয়া থাকার একটি প্রম্পট । উদাহরণস্বরূপ, নিম্নলিখিত প্রম্পটের কোনো সঠিক উত্তর নেই:

হাতি নিয়ে একটা মজার কৌতুক বলুন।

কোনো একটি সঠিক উত্তরের প্রম্পট না পাওয়া উত্তরের মূল্যায়ন সাধারণত একটি সঠিক উত্তর দিয়ে প্রম্পট মূল্যায়ন করার চেয়ে অনেক বেশি বিষয়ভিত্তিক। উদাহরণস্বরূপ, একটি হাতির কৌতুক মূল্যায়ন করার জন্য কৌতুকটি কতটা মজার তা নির্ধারণ করার জন্য একটি পদ্ধতিগত উপায় প্রয়োজন।

নোরা

#generativeAI

কোন একটি সঠিক উত্তর জন্য সংক্ষেপণ.

নোটবুক এলএম

#generativeAI

একটি মিথুন-ভিত্তিক টুল যা ব্যবহারকারীদের নথিগুলি আপলোড করতে এবং তারপর সেই নথিগুলি সম্পর্কে প্রশ্ন জিজ্ঞাসা করতে, সংক্ষিপ্ত করতে বা সংগঠিত করতে প্রম্পট ব্যবহার করতে সক্ষম করে৷ উদাহরণস্বরূপ, একজন লেখক বেশ কয়েকটি ছোট গল্প আপলোড করতে পারেন এবং নোটবুক এলএমকে তাদের সাধারণ থিমগুলি খুঁজে পেতে বা কোনটি সেরা চলচ্চিত্র তৈরি করতে পারে তা সনাক্ত করতে বলতে পারেন।

একটি সঠিক উত্তর (ORA)

#generativeAI

একটি প্রম্পট একটি একক সঠিক প্রতিক্রিয়া হচ্ছে. উদাহরণস্বরূপ, নিম্নলিখিত প্রম্পট বিবেচনা করুন:

সত্য বা মিথ্যা: শনি মঙ্গল গ্রহের চেয়ে বড়।

একমাত্র সঠিক প্রতিক্রিয়াই সত্য

কোন একটি সঠিক উত্তর সঙ্গে বিপরীত.

এক শট প্রম্পটিং

#generativeAI

একটি প্রম্পট যাতে একটি উদাহরণ রয়েছে যা প্রদর্শন করে যে কীভাবে বড় ভাষা মডেলের প্রতিক্রিয়া জানানো উচিত। উদাহরণ স্বরূপ, নিচের প্রম্পটে একটি উদাহরণ রয়েছে যেটি একটি বৃহৎ ভাষার মডেল দেখায় কিভাবে এটি একটি প্রশ্নের উত্তর দিতে হবে।

এক প্রম্পটের অংশ নোট
নির্দিষ্ট দেশের সরকারী মুদ্রা কি? যে প্রশ্নটির উত্তর আপনি LLM করতে চান।
ফ্রান্স: EUR একটি উদাহরণ.
ভারত: প্রকৃত প্রশ্ন.

নিম্নলিখিত পদগুলির সাথে এক-শট প্রম্পটিং তুলনা করুন এবং বৈসাদৃশ্য করুন:

ওআরএ

#generativeAI

একটি সঠিক উত্তরের সংক্ষিপ্ত রূপ।

পৃ

প্যারামিটার-দক্ষ টিউনিং

#generativeAI

একটি বৃহৎ প্রাক-প্রশিক্ষিত ভাষা মডেল (PLM) সম্পূর্ণ ফাইন-টিউনিংয়ের চেয়ে আরও দক্ষতার সাথে সূক্ষ্ম-টিউন করার কৌশলগুলির একটি সেট। প্যারামিটার-দক্ষ টিউনিং সাধারণত পূর্ণ সূক্ষ্ম-টিউনিংয়ের চেয়ে অনেক কম পরামিতিকে সূক্ষ্ম-টিউন করে, তবুও সাধারণত একটি বৃহৎ ভাষার মডেল তৈরি করে যা সম্পূর্ণ সূক্ষ্ম-টিউনিং থেকে নির্মিত একটি বৃহৎ ভাষার মডেল হিসাবে (বা প্রায় পাশাপাশি) কাজ করে।

এর সাথে পরামিতি-দক্ষ টিউনিং তুলনা করুন এবং বৈসাদৃশ্য করুন:

প্যারামিটার-দক্ষ টিউনিং প্যারামিটার-দক্ষ ফাইন-টিউনিং নামেও পরিচিত।

প্যাক্স

#generativeAI

একটি প্রোগ্রামিং ফ্রেমওয়ার্ক যা বৃহৎ-স্কেল নিউরাল নেটওয়ার্ক মডেলগুলিকে প্রশিক্ষণের জন্য ডিজাইন করা হয়েছে যাতে তারা একাধিক TPU এক্সিলারেটর চিপ স্লাইস বা পড বিস্তৃত করে।

প্যাক্স ফ্ল্যাক্সের উপর নির্মিত, যা JAX- এ নির্মিত।

সফ্টওয়্যার স্ট্যাকে প্যাক্সের অবস্থান নির্দেশ করে চিত্র।           প্যাক্স JAX এর উপরে নির্মিত। প্যাক্স নিজেই তিনটি নিয়ে গঠিত           স্তর নীচের স্তরে টেনসরস্টোর এবং ফ্ল্যাক্স রয়েছে।           মাঝের স্তরে রয়েছে Optax এবং Flaxformer। শীর্ষ           স্তরে রয়েছে প্র্যাক্সিস মডেলিং লাইব্রেরি। বেহালা নির্মিত হয়           প্যাক্সের উপরে।

পিএলএম

#generativeAI

প্রাক-প্রশিক্ষিত ভাষা মডেলের সংক্ষিপ্ত রূপ।

পোস্ট-প্রশিক্ষিত মডেল

#generativeAI

ঢিলেঢালাভাবে সংজ্ঞায়িত শব্দ যা সাধারণত একটি প্রাক-প্রশিক্ষিত মডেলকে বোঝায় যা কিছু পোস্ট-প্রসেসিংয়ের মধ্য দিয়ে গেছে, যেমন নিচের এক বা একাধিক:

প্রাক-প্রশিক্ষিত মডেল

#generativeAI

যদিও এই শব্দটি যেকোন প্রশিক্ষিত মডেল বা প্রশিক্ষিত এমবেডিং ভেক্টরকে নির্দেশ করতে পারে, তবে প্রাক-প্রশিক্ষিত মডেল এখন সাধারণত একটি প্রশিক্ষিত বড় ভাষা মডেল বা প্রশিক্ষিত জেনারেটিভ এআই মডেলের অন্য রূপকে বোঝায়।

বেস মডেল এবং ফাউন্ডেশন মডেল দেখুন।

প্রাক-প্রশিক্ষণ

#generativeAI

একটি বড় ডেটাসেটের উপর একটি মডেলের প্রাথমিক প্রশিক্ষণ । কিছু প্রাক-প্রশিক্ষিত মডেল হল আনাড়ি জায়ান্ট এবং সাধারণত অতিরিক্ত প্রশিক্ষণের মাধ্যমে পরিমার্জিত হতে হবে। উদাহরণস্বরূপ, এমএল বিশেষজ্ঞরা একটি বিশাল টেক্সট ডেটাসেটে, যেমন উইকিপিডিয়ার সমস্ত ইংরেজি পৃষ্ঠাগুলিতে একটি বড় ভাষার মডেলকে প্রাক-প্রশিক্ষণ দিতে পারে। প্রাক-প্রশিক্ষণের পরে, ফলস্বরূপ মডেলটি নিম্নলিখিত কৌশলগুলির মাধ্যমে আরও পরিমার্জিত হতে পারে:

প্রো

#generativeAI

আল্ট্রা থেকে কম প্যারামিটার কিন্তু ন্যানো থেকে বেশি প্যারামিটার সহ একটি মিথুন মডেল ৷ বিস্তারিত জানার জন্য জেমিনি প্রো দেখুন।

প্রম্পট

#generativeAI

একটি বৃহৎ ভাষার মডেলে ইনপুট হিসাবে প্রবেশ করা যেকোন পাঠ্য মডেলটিকে একটি নির্দিষ্ট উপায়ে আচরণ করার শর্ত দেয়। প্রম্পটগুলি একটি বাক্যাংশের মতো ছোট বা ইচ্ছাকৃতভাবে দীর্ঘ হতে পারে (উদাহরণস্বরূপ, একটি উপন্যাসের সম্পূর্ণ পাঠ্য)। প্রম্পটগুলি নিম্নলিখিত সারণীতে দেখানো সহ একাধিক বিভাগে পড়ে:

প্রম্পট বিভাগ উদাহরণ নোট
প্রশ্ন একটি কবুতর কত দ্রুত উড়তে পারে?
নির্দেশ স্বেচ্ছাচারিতা সম্পর্কে একটি মজার কবিতা লিখুন। একটি প্রম্পট যা বড় ভাষা মডেলকে কিছু করতে বলে।
উদাহরণ HTML-এ মার্কডাউন কোড অনুবাদ করুন। যেমন:
মার্কডাউন: * তালিকা আইটেম
HTML: <ul> <li>তালিকা আইটেম</li> </ul>
এই উদাহরণের প্রম্পটে প্রথম বাক্যটি একটি নির্দেশ। প্রম্পটের অবশিষ্টাংশটি উদাহরণ।
ভূমিকা পদার্থবিদ্যায় পিএইচডি করার জন্য মেশিন লার্নিং প্রশিক্ষণে গ্রেডিয়েন্ট ডিসেন্ট কেন ব্যবহার করা হয় তা ব্যাখ্যা করুন। বাক্যের প্রথম অংশটি একটি নির্দেশ; "পদার্থবিজ্ঞানে পিএইচডি করতে" বাক্যাংশটি ভূমিকা অংশ।
মডেল সম্পূর্ণ করার জন্য আংশিক ইনপুট যুক্তরাজ্যের প্রধানমন্ত্রী থাকেন একটি আংশিক ইনপুট প্রম্পট হয় হঠাৎ করে শেষ হতে পারে (যেমন এই উদাহরণটি হয়) বা একটি আন্ডারস্কোর দিয়ে শেষ হতে পারে।

একটি জেনারেটর এআই মডেল পাঠ্য, কোড, চিত্র, এম্বেডিংস , ভিডিও… প্রায় কোনও কিছুর সাথে একটি প্রম্পটে সাড়া দিতে পারে।

প্রম্পট-ভিত্তিক শেখা

#জেনেরেটিভাই

নির্দিষ্ট মডেলের একটি ক্ষমতা যা তাদের স্বেচ্ছাসেবী পাঠ্য ইনপুট ( প্রম্পটস ) এর প্রতিক্রিয়াতে তাদের আচরণকে মানিয়ে নিতে সক্ষম করে। একটি সাধারণ প্রম্পট-ভিত্তিক শেখার দৃষ্টান্তে, একটি বৃহত ভাষার মডেল পাঠ্য তৈরি করে একটি প্রম্পটে সাড়া দেয়। উদাহরণস্বরূপ, ধরুন কোনও ব্যবহারকারী নিম্নলিখিত প্রম্পটে প্রবেশ করেছেন:

নিউটনের গতির তৃতীয় আইন সংক্ষিপ্ত করুন।

প্রম্পট-ভিত্তিক শিক্ষার জন্য সক্ষম একটি মডেল পূর্ববর্তী প্রম্পটের উত্তর দেওয়ার জন্য বিশেষভাবে প্রশিক্ষিত নয়। বরং, মডেলটি পদার্থবিজ্ঞান সম্পর্কে প্রচুর তথ্য "জানে", সাধারণ ভাষার নিয়ম সম্পর্কে অনেক কিছু এবং সাধারণত কার্যকর উত্তরগুলি কী তা নিয়ে আসে সে সম্পর্কে অনেক কিছু। এই জ্ঞানটি একটি (আশাবাদী) দরকারী উত্তর সরবরাহ করার জন্য যথেষ্ট। অতিরিক্ত মানব প্রতিক্রিয়া ("সেই উত্তরটি খুব জটিল ছিল" "বা" একটি প্রতিক্রিয়া কী? ") কিছু প্রম্পট-ভিত্তিক শেখার সিস্টেমগুলিকে ধীরে ধীরে তাদের উত্তরের কার্যকারিতা উন্নত করতে সক্ষম করে।

প্রম্পট ডিজাইন

#জেনেরেটিভাই

প্রম্পট ইঞ্জিনিয়ারিংয়ের প্রতিশব্দ।

প্রম্পট ইঞ্জিনিয়ারিং

#জেনেরেটিভাই

তৈরির শিল্পটি একটি বৃহত ভাষার মডেল থেকে কাঙ্ক্ষিত প্রতিক্রিয়াগুলি প্রকাশ করে। মানুষ প্রম্পট ইঞ্জিনিয়ারিং সম্পাদন করে। একটি বৃহত ভাষার মডেল থেকে দরকারী প্রতিক্রিয়াগুলি নিশ্চিত করার জন্য সু-কাঠামোগত প্রম্পটগুলি লেখা একটি অপরিহার্য অঙ্গ। প্রম্পট ইঞ্জিনিয়ারিং অনেকগুলি কারণের উপর নির্ভর করে:

প্রম্পট ডিজাইন প্রম্পট ইঞ্জিনিয়ারিংয়ের প্রতিশব্দ।

সহায়ক প্রম্পটগুলি লেখার বিষয়ে আরও তথ্যের জন্য প্রম্পট ডিজাইনের পরিচিতি দেখুন।

প্রম্পট সেট

#জেনেরেটিভাই

একটি বৃহত ভাষার মডেল মূল্যায়নের জন্য অনুরোধের একটি গ্রুপ। উদাহরণস্বরূপ, নিম্নলিখিত চিত্রটি তিনটি প্রম্পট সমন্বিত একটি প্রম্পট সেট দেখায়:

একটি এলএলএমকে তিনটি অনুরোধ তিনটি প্রতিক্রিয়া তৈরি করে। তিনটি অনুরোধ           প্রম্পট সেট হয়। তিনটি প্রতিক্রিয়া প্রতিক্রিয়া সেট।

ভাল প্রম্পট সেটগুলিতে একটি বৃহত ভাষার মডেলের সুরক্ষা এবং সহায়কতার পুরোপুরি মূল্যায়ন করার জন্য যথেষ্ট পরিমাণে "প্রশস্ত" সংগ্রহ রয়েছে।

প্রতিক্রিয়া সেটও দেখুন।

প্রম্পট টিউনিং

#জেনেরেটিভাই

একটি প্যারামিটার দক্ষ টিউনিং প্রক্রিয়া যা একটি "উপসর্গ" শিখেছে যা সিস্টেমটি প্রকৃত প্রম্পটে প্রস্তুত করে।

প্রম্পট টিউনিংয়ের একটি প্রকরণ - কখনও কখনও উপসর্গ টিউনিং নামে পরিচিত - প্রতিটি স্তরে উপসর্গটি প্রস্তুত করার জন্য। বিপরীতে, বেশিরভাগ প্রম্পট টিউনিং কেবল ইনপুট স্তরটিতে একটি উপসর্গ যুক্ত করে।

আর

রেফারেন্স পাঠ্য

#জেনেরেটিভাই

একটি প্রম্পটে বিশেষজ্ঞের প্রতিক্রিয়া। উদাহরণস্বরূপ, নিম্নলিখিত প্রম্পট দেওয়া:

"আপনার নাম কি?" প্রশ্নটি অনুবাদ করুন ইংরেজি থেকে ফরাসি পর্যন্ত।

একজন বিশেষজ্ঞের প্রতিক্রিয়া হতে পারে:

মন্তব্য vous applez-vous?

বিভিন্ন মেট্রিক (যেমন রাউজ ) রেফারেন্স পাঠ্যটি এমএল মডেলের উত্পন্ন পাঠ্যের সাথে মেলে এমন ডিগ্রি পরিমাপ করে।

মানব প্রতিক্রিয়া থেকে শক্তিবৃদ্ধি শেখা (আরএলএইচএফ)

#জেনেরেটিভাই

কোনও মডেলের প্রতিক্রিয়াগুলির গুণমান উন্নত করতে মানব রেটারদের কাছ থেকে প্রতিক্রিয়া ব্যবহার করা। উদাহরণস্বরূপ, একটি আরএলএইচএফ প্রক্রিয়া ব্যবহারকারীদের একটি 👍 বা 👎 ইমোজি দিয়ে কোনও মডেলের প্রতিক্রিয়ার গুণমানকে রেট করতে বলতে পারে। সিস্টেমটি তখন সেই প্রতিক্রিয়ার ভিত্তিতে তার ভবিষ্যতের প্রতিক্রিয়াগুলি সামঞ্জস্য করতে পারে।

প্রতিক্রিয়া

#জেনেরেটিভাই

পাঠ্য, চিত্র, অডিও বা ভিডিও যা একটি জেনারেটর এআই মডেলকে অন্তর্ভুক্ত করে । অন্য কথায়, একটি প্রম্পট হ'ল একটি জেনারেটর এআই মডেলের ইনপুট এবং প্রতিক্রিয়া হ'ল আউটপুট

প্রতিক্রিয়া সেট

#জেনেরেটিভাই

প্রতিক্রিয়া সংগ্রহ একটি বৃহত ভাষার মডেল একটি ইনপুট প্রম্পট সেটে ফিরে আসে।

ভূমিকা প্রম্পটিং

#জেনেরেটিভাই

একটি প্রম্পট , সাধারণত আপনাকে সর্বনাম দিয়ে শুরু করে, যা একটি জেনারেটর এআই মডেলকে প্রতিক্রিয়া তৈরি করার সময় একটি নির্দিষ্ট ব্যক্তি বা নির্দিষ্ট ভূমিকা হিসাবে ভান করতে বলে। ভূমিকা অনুরোধ করা আরও কার্যকর প্রতিক্রিয়া তৈরি করতে একটি জেনারেটর এআই মডেলকে সঠিক "মানসিকতা" এ প্রবেশ করতে সহায়তা করতে পারে। উদাহরণস্বরূপ, আপনি যে ধরণের প্রতিক্রিয়া খুঁজছেন তার উপর নির্ভর করে নিম্নলিখিত যে কোনও ভূমিকা অনুরোধগুলি উপযুক্ত হতে পারে:

কম্পিউটার বিজ্ঞানে আপনার পিএইচডি রয়েছে।

আপনি একজন সফটওয়্যার ইঞ্জিনিয়ার যিনি নতুন প্রোগ্রামিং শিক্ষার্থীদের পাইথন সম্পর্কে রোগীর ব্যাখ্যা দেওয়া উপভোগ করেন।

আপনি প্রোগ্রামিং দক্ষতার একটি খুব নির্দিষ্ট সেট সহ একটি অ্যাকশন হিরো। আমাকে আশ্বাস দিন যে আপনি একটি পাইথন তালিকায় একটি নির্দিষ্ট আইটেম পাবেন।

এস

নরম প্রম্পট টিউনিং

#জেনেরেটিভাই

একটি নির্দিষ্ট কাজের জন্য একটি বৃহত ভাষার মডেল টিউন করার জন্য একটি কৌশল, রিসোর্স নিবিড় সূক্ষ্ম-সুরকরণ ছাড়াই। মডেলের সমস্ত ওজনকে পুনরায় প্রশিক্ষণ দেওয়ার পরিবর্তে, সফট প্রম্পট টিউনিং স্বয়ংক্রিয়ভাবে একই লক্ষ্য অর্জনের জন্য একটি প্রম্পট সামঞ্জস্য করে।

একটি পাঠ্য প্রম্পট দেওয়া, নরম প্রম্পট টিউনিং সাধারণত অতিরিক্ত টোকেন এম্বেডিংগুলিকে প্রম্পটে সংযুক্ত করে এবং ইনপুটটি অনুকূল করতে ব্যাকপ্রোপেশন ব্যবহার করে।

একটি "হার্ড" প্রম্পটে টোকেন এম্বেডিংয়ের পরিবর্তে প্রকৃত টোকেন রয়েছে।

টি

তাপমাত্রা

#জেনেরেটিভাই

একটি হাইপারপ্যারামিটার যা কোনও মডেলের আউটপুটটির এলোমেলো ডিগ্রি নিয়ন্ত্রণ করে। উচ্চতর তাপমাত্রার ফলে আরও এলোমেলো আউটপুট হয়, যখন কম তাপমাত্রার ফলে কম এলোমেলো আউটপুট হয়।

সর্বোত্তম তাপমাত্রা নির্বাচন করা নির্দিষ্ট অ্যাপ্লিকেশন এবং বা স্ট্রিং মানগুলির উপর নির্ভর করে।

আল্ট্রা

#জেনেরেটিভাই

সর্বাধিক পরামিতি সহ জেমিনি মডেল । বিশদ জন্য মিথুন আল্ট্রা দেখুন।

প্রো এবং ন্যানোও দেখুন।

ভি

ভার্টেক্স

#গুগলক্লাউড
#জেনেরেটিভাই
এআই এবং মেশিন লার্নিংয়ের জন্য গুগল ক্লাউডের প্ল্যাটফর্ম। ভার্টেক্স জেমিনি মডেলগুলিতে অ্যাক্সেস সহ এআই অ্যাপ্লিকেশনগুলি বিল্ডিং, মোতায়েন এবং পরিচালনার জন্য সরঞ্জাম এবং অবকাঠামো সরবরাহ করে।

জেড

জিরো-শট প্রম্পটিং

#জেনেরেটিভাই

এমন একটি প্রম্পট যা আপনি বড় ভাষার মডেলটি কীভাবে প্রতিক্রিয়া জানাতে চান তার উদাহরণ সরবরাহ করে না । যেমন:

একটি প্রম্পটের অংশ নোট
নির্দিষ্ট দেশের সরকারী মুদ্রা কী? আপনি যে প্রশ্নের উত্তর চান তা প্রশ্নের উত্তর দিন।
ভারত: আসল ক্যোয়ারী।

বৃহত্তর ভাষার মডেল নিম্নলিখিতগুলির সাথে প্রতিক্রিয়া জানাতে পারে:

  • রুপি
  • INR
  • ভারতীয় রুপি
  • রুপী
  • ভারতীয় রুপী

সমস্ত উত্তর সঠিক, যদিও আপনি একটি নির্দিষ্ট ফর্ম্যাট পছন্দ করতে পারেন।

নিম্নলিখিত শর্তগুলির সাথে জিরো-শটকে অনুরোধ করুন এবং বিপরীতে তুলনা করুন: