langchain_community.embeddings.infinity
.TinyAsyncOpenAIInfinityEmbeddingClient¶
- class langchain_community.embeddings.infinity.TinyAsyncOpenAIInfinityEmbeddingClient(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None)[source]¶
Infinity 的辅助工具。
不属于 Langchain 的稳定 API 的一部分,不建议直接使用。
示例
mini_client = TinyAsyncInfinityEmbeddingClient( ) embeds = mini_client.embed( model="BAAI/bge-small", text=["doc1", "doc2"] ) # or embeds = await mini_client.aembed( model="BAAI/bge-small", text=["doc1", "doc2"] )
方法
__init__
([host, aiosession])aembed
(model, texts)调用模型的嵌入,异步方法
embed
(model, texts)调用模型的嵌入
- 参数
host (str) –
aiosession (Optional[ClientSession]) –
- __init__(host: str = 'http://localhost:7797/v1', aiosession: Optional[ClientSession] = None) None [source]¶
- 参数
host (str) –
aiosession (Optional[ClientSession]) –
- 返回类型
None