तरीका: Model.generateText
दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
पाथ पैरामीटर
model
string
ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model
या TunedModel
नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल क�� दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
प्रॉम्प्ट मिलने पर, मॉडल टेक्स्ट के पूरा होने के बाद एक जवाब जनरेट करेगा, जिसका अनुमान लगाने के बाद यह इनपुट टेक्स्ट पूरा होने के बारे में बताता है.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने वाले यूनीक SafetySetting
इंस्टेंस की सूची.
जिसे GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, SafetySettings में दिए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory
के लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.
stopSequences[]
string
वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर बताया गया है, तो एपीआई, स्टॉप सीक्वेंस के पहली बार दिखने पर बंद हो जाएगा. रोकने के क्रम को जवाब के हिस्से के रूप में शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.temperature
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.
candidateCount
integer
ज़रूरी नहीं. दिए जाने वाले, जनरेट किए गए जवाबों की सं��्या.
���� ��ैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इस नीति को सेट नहीं किया जाता है, तो यह Model
की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.
topP
number
ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.
इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.
टोकन, असाइन की गई क्षमताओं के हिसाब से क्रम में लगाए जाते हैं, ताकि सबसे ज़्यादा संभावना वाले टोकन ही इस्तेमाल किए जा सकें. टॉप-के सैंपलिंग पर विचार करने के लिए, टोकन की ज़्यादा से ज़्यादा संख्या को सीधे तौर पर सीमित किया जाता है, जबकि न्यूक्लियस सैंपलिंग कुल प्रॉबबिलिटी के आधार पर टोकन की संख्या को सीमित करता है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_p
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.
टॉप-K सैंपलिंग, topK
के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट तौर पर, यह 40 पर सेट होता है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_k
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
तरीका: Model.countTextTokens
किसी टेक्स्ट पर मॉडल का टोकनाइज़र चलाता है और टोकन काउंट दिखाता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
का रूप लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
जवाब का मुख्य भाग
models.countTextTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल के tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
उन टोकन की संख्या जिनमें model
, prompt
को टोकन देता है.
हमेशा नकारात्मक.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: Model.generateMessage
दिए गए इनपुट MessagePrompt
मॉडल से रिस्पॉन्स जनरेट करता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
पाथ पैरामीटर
model
string
ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.
फ़ॉर्मैट: name=models/{model}
. यह models/{model}
का रूप लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट वाला इनपुट.
प्रॉम्प्ट मिलने पर, मॉडल अपने अनुमान के मुताबिक जानकारी दिखाएगा. इसके लिए, बातचीत का अगला मैसेज दिखाया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है.
वैल्यू [0.0,1.0]
से ज़्यादा भी हो सकती है. इसमें ये वैल्यू भी शामिल हैं. 1.0
के करीब की वैल्यू, ज़्यादा अलग-अलग तरह के जवाब देगी. वहीं, 0.0
के करीब की वैल्यू, आम तौर पर इस मॉडल से मिलने वाले चौंकाने वाले ��वाब नहीं देगी.
candidateCount
integer
ज़रूरी नहीं. दिए जाने वाले जवाब के तौर पर जनरेट किए गए मैसेज की संख्या.
यह वैल्यू [1, 8]
के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1
पर सेट होगी.
topP
number
ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.
इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.
न्यूक्लियस सैंपलिंग के तहत टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिसकी संभावना का योग कम से कम topP
होता है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.
टॉप-K सैंपलिंग, topK
के सबसे संभावित टोकन के सेट के हिसाब से काम करती है.
जवाब का मुख्य भाग
मॉडल से मिला रिस्पॉन्स.
इसमें उम्मीदवार के मैसेज और बातचीत का इतिहास, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर शामिल है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
candidates[]
object (Message
)
मॉडल से उम्मीदवार के जवाब वाले मैसेज.
messages[]
object (Message
)
बातचीत के इतिहास का इस्तेमाल, मॉडल करता है.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट को फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability
जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
तरीका: Model.countMessageTokens
स्ट्रिंग पर मॉडल का टोकनाइज़र चलाता है और टोकन काउंट दिखाता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
का रूप लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. वह प्रॉम्प्ट जिसकी ��ोकन संख्या दिखाई जानी है.
जवाब का मुख्य भाग
models.countMessageTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल के tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
उन टोकन की संख्या जिनमें model
, prompt
को टोकन देता है.
हमेशा नकारात्मक.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: Model.embedText
दिए गए इनपुट मैसेज के मॉडल से एम्बेडिंग जनरेट करता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम. यह models/{model}
का रूप लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
text
string
ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.
जवाब का मुख्य भाग
EmbedTextRequest के लिए रिस्पॉन्स.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
embedding
object (Embedding
)
सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.
JSON के काेड में दिखाना |
---|
{
"embedding": {
object ( |
तरीका: Model.batchEmbedText
सिंक्रोनस कॉल में दिए गए मॉडल के इनपुट टेक्स्ट से, एक से ज़्यादा एम्बेड करने की सुविधा जनरेट करती है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
पाथ पैरामीटर
model
string
ज़रूरी है. एम्बेड करने की प्रोसेस जनरेट करने में इस्तेमाल करने के लिए Model
का नाम. उदाहरण: Model/embedding-gecko-001 यह models/{model}
का फ़ॉर्म लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
texts[]
string
ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एक एम्बेडिंग में बदल देगा. मौजूदा सीमा 100 मैसेज की है. इसके बाद, गड़बड़ी का मैसेज दिखाया जाएगा.
requests[]
object (EmbedTextRequest
)
ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts
या requests
में से सिर्फ़ एक को सेट किया जा स���ता है.
जवाब का मुख्य भाग
EmbedTextRequest के लिए रिस्पॉन्स.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
embeddings[]
object (Embedding
)
सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.
JSON के काेड में दिखाना |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
मॉडल से टेक्स्ट एम्बेड करने के लिए अनुरोध करें.
JSON के काेड में दिखाना |
---|
{ "model": string, "text": string } |
model
string
ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम.
text
string
ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.
तरीका: TunerModels.generateText
दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.
एंडपॉइंट
पोस्ट
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
पाथ पैरामीटर
model
string
ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model
या TunedModel
नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह tunedModels/{tunedmodel}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
प्रॉम्प्ट मिलने पर, मॉडल टेक्स्ट के पूरा होने के बाद एक जवाब जनरेट करेगा, जिसका अनुमान लगाने के बाद यह इनपुट टेक्स्ट पूरा होने के बारे में बताता है.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने वाले यूनीक SafetySetting
इंस्टेंस की सूची.
जिसे GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, SafetySettings में दिए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory
��े लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.
stopSequences[]
string
वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर बताया गया है, तो एपीआई, स्टॉप सीक्वेंस के पहली बार दिखने पर बंद हो जाएगा. रोकने के क्रम को जवाब के हिस्से के रूप में शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.temperature
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.
candidateCount
integer
ज़रूरी नहीं. दिए जाने वाले, जनरेट किए गए जवाबों की संख्या.
यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इस नीति को सेट नहीं किया जाता है, तो यह Model
की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.
topP
number
ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.
इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.
टोकन, असाइन की गई क्षमताओं के हिसाब से क्रम में लगाए जाते हैं, ताकि सबसे ज़्यादा संभावना वाले टोकन ही इस्तेमाल किए जा सकें. टॉप-के सैंपलिंग पर विचार करने के लिए, टोकन की ज़्यादा स��� ज़्यादा संख्या को सीधे तौर पर सीमित किया जाता है, जबकि न्यूक्लियस सैंपलिंग कुल प्रॉबबिलिटी के आधार पर टोकन की संख्या को सीमित करता है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_p
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉ���ल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.
टॉप-K सैंपलिंग, topK
के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट तौर पर, यह 40 पर सेट होता है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_k
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
ContentFilter
किसी एक अनुरोध को प्रोसेस करने से जुड़ा कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.
ContentFilter में वजह और इस्तेमाल करने के लिए एक वैकल्पिक स्ट्रिंग होती है. इसकी वजह साफ़ तौर पर नहीं बताई गई हो सकती है.
JSON के काेड में दिखाना |
---|
{
"reason": enum ( |
reason
enum (BlockedReason
)
अनुरोध को प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक करने की वजह.
message
string
यह स्ट्रिंग, फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देती है.
BlockedReason
कॉन्टेंट ब्लॉक किए जाने की वजहों की सूची.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ब्लॉक किए जाने की वजह नहीं बताई गई. |
SAFETY |
सुरक्षा सेटिंग की वजह से, कॉन्टेंट को ब्लॉक किया गया है. |
OTHER |
कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन उसकी वजह साफ़ नहीं है. |
एम्बेड करना
एम्बेड करने की जानकारी देने वाले फ़्लोट की सूची.
JSON के काेड में दिखाना |
---|
{ "value": [ number ] } |
value[]
number
एम्बेड करने वाली वैल्यू.
मैसेज
स्ट्रक्चर्ड टेक्स्ट की बेस यूनिट.
Message
में, Message
का author
और content
शामिल होता है.
author
का इस्तेमाल मैसेज को टैग करने के लिए तब किया जाता है, जब उन्हें मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.
JSON के काेड में दिखाना |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
author
string
ज़रूरी नहीं. इस मैसेज का लेखक.
यह इस मैसेज के कॉन्टेंट को टैग करने के लिए, एक कुंजी के तौर पर काम करता है. ऐसा तब होता है, जब मॉडल में टेक्स्ट के रूप में फ़ीड दिया जाता है.
लेखक, अक्षर और अंक मिलाकर कोई भी स्ट्रिंग हो सकता है.
content
string
ज़रूरी है. स्ट्रक्चर्ड Message
का टेक्स्ट कॉन्टेंट.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस Message
में, मॉडल से जनरेट किए गए content
के लिए उद्धरण की जानकारी.
अगर इस Message
को मॉडल से आउटपुट के तौर पर जनरेट किया गया था, तो content
में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भरी जा सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.
MessagePrompt
मॉडल को प्रॉम्प्ट के तौर पर पास किए गए सभी स्ट्रक्चर्ड इनपुट टेक्स्ट.
MessagePrompt
में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के लिए कॉन्टेक्स्ट उपलब्ध कराता है. साथ ही, इसमें उपयोगकर्ता के इनपुट/मॉडल आउटपुट मैसेज पेयर के ऐसे उदाहरण होते हैं जो मॉडल को अलग-अलग तरीके से जवाब दे��े के लिए ज़रूरी बनाते हैं. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची शामिल होती है.
JSON के काेड में दिखाना |
---|
{ "context": string, "examples": [ { object ( |
context
string
ज़रूरी नहीं. ऐसा टेक्स्ट जो जवाब देने के लिए, मॉडल को पहले दिया जाना चाहिए.
अगर वैल्यू खाली नहीं है, तो यह context
, examples
और messages
से पहले वाले मॉडल को दिया जाएगा. context
का इस्तेमाल करते समय, पक्का करें कि इसे जारी रखने के लिए, इसे हर अनुरोध के साथ उपलब्ध कराया जाए.
यह फ़ील्ड, मॉडल के लिए आपके प्रॉम्प्ट की जानकारी हो सकती है. इससे, आपको कॉन्टेक्स्ट देने और जवाबों को गाइड करने में मदद मिलती है. उदाहरण: "वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "कथन को देखते हुए, भावना को खुश, दुखी या सामान्य के तौर पर मार्क करें."
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है और इनपुट का अनुरोध छोटा कर दिया गया है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास के मुकाबले ज़्यादा अहमियत दी जाएगी.
examples[]
object (Example
)
ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.
इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स शामिल है जिसे मॉडल को एम्युलेट करना चाहिए.
इन examples
को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, messages
के इतिहास के मुकाबले, इन्हें प्राथमिकता दी जाती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी. आइटम को examples
से पहले messages
से हटा दिया जाएगा.
messages[]
object (Message
)
ज़रूरी है. बातचीत के इतिहास का स्नैपशॉट, जो समय के हिसाब से क्रम में लगाया गया है.
दो लेखकों के बीच बारी-बारी से बदलता है.
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी: सबसे पुराने आइटम messages
से हटा दिए जाएंगे.
उदाहरण
इनपुट/आउटपुट का उदाहरण, जिसका इस्तेमाल मॉडल को निर्देश देने के लिए किया जाता है.
इससे पता चलता है कि मॉडल को जवाब कैसे देना चाहिए या अपना रिस्पॉन्स किस तरह फ़ॉर्मैट करना चाहिए.
JSON के काेड में दिखाना |
---|
{ "input": { object ( |
input
object (Message
)
ज़रूरी है. उपयोगकर्ता के इनपुट Message
का उदाहरण.
output
object (Message
)
ज़रूरी है. दिए गए इनपुट के हिसाब से मॉडल को क्या आउटपुट करना चाहिए, इसका उदाहरण.
GenerateTextResponse
मॉडल से मिला जवाब, जिसमें उम्मीदवार के जवाब भी शामिल होते हैं.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
candidates[]
object (TextCompletion
)
मॉडल से उम्मीदवार के जवाब.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट को फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability
जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई. यह SafetySettings
में हुए उस छोटे से बदलाव के बारे में बताता है जो कम से कम एक जवाब को अनब्लॉक करने के लिए ज़रूरी होगा.
ब्लॉक करने की सेटिंग को, अनुरोध में मौजूद SafetySettings
(या एपीआई के डिफ़ॉल्ट SafetySettings
) की मदद से कॉन्फ़िगर किया जाता है.
safetyFeedback[]
object (SafetyFeedback
)
कॉन्टेंट को फ़िल्टर करने की सुविधा से जुड़ा कोई सुरक्षा सुझाव दिखाता है.
TextCompletion
मॉडल से लौटाया गया आउटपुट टेक्स्ट.
JSON के काेड में दिखाना |
---|
{ "output": string, "safetyRatings": [ { object ( |
output
string
सिर्फ़ आउटपुट के लिए. जनरेट किया गया टेक्स्ट, मॉडल से दिखाया गया.
safetyRatings[]
object (SafetyRating
)
किसी जवाब की सुरक्षा के लिए रेटिंग.
हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग है.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस TextCompletion
में, मॉडल से जनरेट किए गए output
के लिए उद्धरण की जानकारी.
इस फ़ील्ड में, output
में शामिल किसी भी टेक्स्ट के एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.
SafetyFeedback
पूरे अनुरोध के लिए, सुरक्षा से जुड़े सुझाव, शिकायत या राय.
अगर सुरक्षा सेटिंग की वजह से इनपुट और/या जवाब का कॉन्टेंट ब्लॉक कर दिया जाता है, तो इस फ़ील्ड में जानकारी अपने-आप भर जाती है. हो सकता है कि हर HarmCategory के लिए Safetyसुझाव मौजूद न हो. सुरक्षा के बारे में हर सुझाव, अनुरोध के लिए इस्तेमाल की गई सुरक्षा सेटिंग दिखाएगा. साथ ही, नुकसान की संभावना की सबसे कम संभावना भी दिखाएगा, जिसे कोई नतीजा देने के लिए अनुमति दी जानी चाहिए.
JSON के काेड में दिखाना |
---|
{ "rating": { object ( |
rating
object (SafetyRating
)
कॉन्टेंट से मिली सुरक्षा रेटिंग का आकलन किया गया.
setting
object (SafetySetting
)
अनुरोध पर सुरक्षा सेटिंग लागू की गईं.