langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient

class langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None)[source]

Infinity 的辅助工具。

不属于 Langchain 的稳定 API 的一部分,不建议直接使用。

示例

mini_client = TinyAsyncInfinityEmbeddingClient(
)
embeds = mini_client.embed(
    model="BAAI/bge-small",
    text=["doc1", "doc2"]
)
# or
embeds = await mini_client.aembed(
    model="BAAI/bge-small",
    text=["doc1", "doc2"]
)

方法

__init__([host, aiosession])

aembed(model, texts)

调用模型的嵌入,异步方法

embed(model, texts)

调用模型的嵌入

参数
  • host (str) –

  • aiosession (Optional[ClientSession]) –

__init__(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None) None[source]
参数
  • host (str) –

  • aiosession (Optional[ClientSession]) –

返回类型

None

async aembed(model: str, texts: List[str]) List[List[float]][source]

调用模型的嵌入,异步方法

参数
  • model (str) – 目标嵌入模型

  • texts (句子列表[str]) - 要嵌入的句子列表。

返回

每个句子的向量列表

返回类型

列表[列表[浮点数]]

embed(model: str, texts: List[str]) List[List[float]][源代码]

调用模型的嵌入

参数
  • model (str) – 目标嵌入模型

  • texts (句子列表[str]) - 要嵌入的句子列表。

返回

每个句子的向量列表

返回类型

列表[列表[浮点数]]