Cortex InferenceReturns the LLMs available for the current session¶GET/api/v2/cortex/modelsReturns the LLMs available for the current session応答¶コード説明200OKオブジェクトに応答するエラー・レスポンス・コードボディ・スキーマに応答する¶Perform LLM text completion inference¶POST/api/v2/cortex/inference:completePerform LLM text completion inference, similar to snowflake.cortex.Complete.応答¶コード説明200OKオブジェクトに応答するエラー・レスポンス・コードボディ・スキーマに応答する¶