PHP AI插件整合文心/千问/DeepSeek等十大模型,支持Laravel与ThinkPHP框架

本文详细介绍一款强大的PHP AI集成插件,它一站式整合了文心一言、通义千问、DeepSeek、火山、ChatGPT、Gemini等十大主流AI模型API。插件提供统一接口,支持Laravel和ThinkPHP框架,并包含流式响应、灵活配置等功能。文章提供了完整的安装、配置步骤及代码示例,助你快速在PHP应用中实现AI能力调用。

PHP AI 插件,整合文心、千问、火山、DeepSeek、混元大模型、智谱清言、Kimi、ChatGPT、Gemini、Minmax 等AI模型接口,支持 ThinkPHP 和 Laravel 框架。

功能特性

✅ 支持多个AI模型:文心、千问、火山、DeepSeek、混元大模型、智谱清言、Kimi、ChatGPT、Gemini、Minmax

✅ 统一API接口,简化AI调用

✅ 支持流式响应

✅ 支持ThinkPHP 6.0+

✅ 支持Laravel 8.0+

✅ 灵活的配置系统


安装流程

使用composer安装:

composer require phpais/ai-plugin

配置方法

Laravel 配置

1. 发布配置文件:

php artisan vendor:publish --provider="Phpais\AiPlugin\Laravel\AiPluginServiceProvider"

2. 在 .env 文件中配置AI模型:

# 默认AI模型
AI_DEFAULT=wenxin

# 文心AI配置
AI_WENXIN_API_KEY=your_api_key
AI_WENXIN_MODEL=ernie-bot

# 千问AI配置
AI_QIANWEN_API_KEY=your_api_key
AI_QIANWEN_MODEL=ep-20240101123456-abcde

# 火山AI配置
AI_VOLCANO_API_KEY=your_api_key
AI_VOLCANO_MODEL=ep-20240101123456-abcde

# DeepSeek AI配置
AI_DEEPSEEK_API_KEY=your_api_key
AI_DEEPSEEK_MODEL=deepseek-chat

# 混元大模型配置
AI_HUNYUAN_API_KEY=your_api_key
AI_HUNYUAN_MODEL=hunyuan-pro

# 智谱清言配置
AI_ZHIPU_API_KEY=your_api_key
AI_ZHIPU_MODEL=glm-4



# ChatGPT配置
AI_CHATGPT_API_KEY=your_api_key
AI_CHATGPT_MODEL=gpt-3.5-turbo

# Gemini配置
AI_GEMINI_API_KEY=your_api_key
AI_GEMINI_MODEL=gemini-pro

# Minmax配置
AI_MINMAX_API_KEY=your_api_key
AI_MINMAX_MODEL=abab5.5-chat

# Kimi配置
AI_KIMI_API_KEY=your_api_key
AI_KIMI_MODEL=kimi

ThinkPHP 配置

1. 在 config 目录下创建 ai.php 配置文件,内容参考 src/Config/ai.php

2. 在 .env 文件中配置AI模型,配置项与Laravel相同


使用示例

Laravel 示例

基本使用

use Phpais\AiPlugin\Laravel\Facades\AI;

// 发送文本请求
$result = AI::chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 带参数的请求
$result = AI::chat('写一首关于春天的诗', [
    'temperature' => 0.8,
    'max_tokens' => 512,
    'system' => '你是一位诗人,擅长写抒情诗'
]);
echo $result['text'];

// 流式响应
AI::streamChat('写一篇关于AI的文章', function ($chunk) {
    echo $chunk;
    flush();
});

使用特定模型

use Phpais\AiPlugin\Factories\AiClientFactory;

// 使用千问模型
$qianwenClient = AiClientFactory::create('qianwen', config('ai.providers.qianwen'));
$result = $qianwenClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用DeepSeek模型
$deepseekClient = AiClientFactory::create('deepseek', config('ai.providers.deepseek'));
$result = $deepseekClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用混元大模型
$hunyuanClient = AiClientFactory::create('hunyuan', config('ai.providers.hunyuan'));
$result = $hunyuanClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用智谱清言
$zhipuClient = AiClientFactory::create('zhipu', config('ai.providers.zhipu'));
$result = $zhipuClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用ChatGPT
$chatgptClient = AiClientFactory::create('chatgpt', config('ai.providers.chatgpt'));
$result = $chatgptClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用Gemini
$geminiClient = AiClientFactory::create('gemini', config('ai.providers.gemini'));
$result = $geminiClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用Minmax
$minmaxClient = AiClientFactory::create('minmax', config('ai.providers.minmax'));
$result = $minmaxClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用Kimi
$kimiClient = AiClientFactory::create('kimi', config('ai.providers.kimi'));
$result = $kimiClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

ThinkPHP 示例

基本使用

// 发送文本请求
$result = app('ai')->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 带参数的请求
$result = app('ai')->chat('写一首关于春天的诗', [
    'temperature' => 0.8,
    'max_tokens' => 512,
    'system' => '你是一位诗人,擅长写抒情诗'
]);
echo $result['text'];

// 流式响应
app('ai')->streamChat('写一篇关于AI的文章', function ($chunk) {
    echo $chunk;
    flush();
});

使用特定模型

use Phpais\AiPlugin\Factories\AiClientFactory;

// 使用千问模型
$qianwenClient = AiClientFactory::create('qianwen', config('ai.providers.qianwen'));
$result = $qianwenClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用DeepSeek模型
$deepseekClient = AiClientFactory::create('deepseek', config('ai.providers.deepseek'));
$result = $deepseekClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用混元大模型
$hunyuanClient = AiClientFactory::create('hunyuan', config('ai.providers.hunyuan'));
$result = $hunyuanClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

// 使用智谱清言
$zhipuClient = AiClientFactory::create('zhipu', config('ai.providers.zhipu'));
$result = $zhipuClient->chat('你好,能介绍一下你自己吗?');
echo $result['text'];

API 文档

核心方法

chat(string $prompt, array $options = []): array

发送文本请求到AI模型

  • $prompt:提示词
  • $options:可选参数,包括 temperature, max_tokens, system 等
  • 返回值:包含响应文本和使用信息的数组

streamChat(string $prompt, callable $callback, array $options = []): void

发送流式文本请求到AI模型

  • $prompt: 提示词
  • $callback:回调函数,用于处理流式响应
  • $options:可选参数

generateImage(string $prompt, array $options = []): array

生成图像(部分模型支持)

  • $prompt:提示词
  • $options:可选参数
  • 返回值:包含图像URL和使用信息的数组

getModelInfo(): array

获取模型信息

  • 返回值:模型信息数组

支持的AI模型

模型提供者配置键说明
文心一言百度wenxin百度的AI模型
千问阿里qianwen阿里的AI模型
火山字节跳动volcano字节跳动的AI模型
DeepSeekDeepSeekdeepseekDeepSeek的AI模型
混元大模型腾讯hunyuan腾讯的AI模型
智谱清言智谱AIzhipu智谱AI的AI模型
Kimi月之暗面kimi月之暗面的AI模型
ChatGPTOpenAIchatgptOpenAI的AI模型
GeminiGooglegeminiGoogle的AI模型
MinmaxMinmaxminmaxMinmax的AI模型

注意事项

1. 请确保在使用前配置好对应的API密钥

2. 不同模型的API调用方式和参数可能略有差异

3. 流式响应需要在支持的环境中使用

转载作品,原作者:PHP驿站,文章来源:https://mp.weixin.qq.com/s/4jrxJgGWhEVHjOTnv9HaYg

(0)
打赏 微信赞赏 微信赞赏 支付宝赞赏 支付宝赞赏
OpenClaw插件重大更新:面板现支持一键配置QQ、飞书机器人
上一篇 2026-02-02 10:14
从零搭建Clawdbot对接企微机器人:实现单向消息推送的完整教程
下一篇 2026-01-30 10:52

相关推荐

发表回复

登录后才能评论
扫码了解
扫码了解
反馈建议
分享本页
返回顶部