今天,OpenAI 发布了其最新的 LLM 模型 GPT-4o。人们正在分享基于这个突破性模型构建的疯狂应用。通过使用 GPT-4o
,我们在数据检索方面看到了改进,这能够让用户获得更快的响应并降低成本(成本低于 GPT-4 Turbo)。
在 12 小时内,我们在 Wren AI 的团队发布了最新版本,支持使用 GPT-4o LLM 模型查询您自己的数据库。在这篇文章中,我们将指导您如何设置并使用 gpt-4o
来查询您自己的 PostgreSQL 数据库!
Wren AI 是一个开源的 Text-to-SQL 解决方案,帮助数据团队通过提问业务问题而不是编写 SQL 来更快地获取结果和洞察。
让我们开始吧!
启动您的 PostgreSQL 服务器,并使用 psql
客户端进入您的 PostgreSQL 数据库。
在 PostgreSQL 中创建一个数据库,我们在这里称之为 ecom-wrenai
CREATE DATABASE ecom_wrenai;
使用 \c <database_name>
连接到创建的数据库 ecom_wrenai
lijungchi=# \c ecom_wrenaipsql (13.1, server 13.0)You are now connected to database "ecom_wrenai" as user "lijungchi".
ecom_wrenai=#
现在,您需要创建此数据集的表并导入数据。请在此 gist 中查看 SQL 脚本。
您可以将脚本复制到您的 psql
中,或者通过 psql
导入 SQL
ecom_wrenai=# \i <path to your file>/import.sql
如果您成功导入数据,您将看到以下信息。
接下来,让我们开始安装 Wren AI;在此之前,您需要安装 Docker。
请确保 Docker Desktop 的版本至少为 >= 4.17。
请确保您的 Open API 密钥拥有 完全权限(所有)。
访问 OpenAI 开发者平台。
为 Wren AI 生成一个具有完全权限的新 API 密钥
如果您使用 Mac(使用 Windows 或 Linux 请点击此处查看),输入以下命令安装最新的 Wren AI Launcher。
curl -L https://github.com/Canner/WrenAI/releases/latest/download/wren-launcher-darwin.tar.gz | tar -xz && ./wren-launcher-darwin
启动器将按如下方式询问您的 OpenAI API 密钥,将您的密钥粘贴到命令中并按回车。
现在您可以在 Wren AI 中选择 OpenAI 的生成模型 gpt-4o
、 gpt-4-turbo
或 gpt-3.5-turbo
。
现在您会看到我们正在您的计算机上运行 docker-compose
;安装完成后,工具将自动打开您的浏览器访问 Wren AI。
终端成功安装后,它将启动浏览器
选择 PostgreSQL 数据库连接器
如果您使用 Mac 本地 PostgreSQL 数据库,输入 docker.for.mac.localhost
来访问数据库。
下一步,定义与语义模型的关系;这有助于 LLMs 更深入地理解您的语义数据结构。
您可以在 Wren AI UI 中查看您的所有数据模型。
通过 Wren AI UI,您可以在语义上下文中对数据模型进行建模,例如添加描述、关系、计算等。此上下文可以帮助 LLMs 学习您的业务术语和 KPI 定义,并减少在连接多个表时产生的幻觉;LLMs 通过学习表之间的关系(例如是 多对一
、 一对多
还是 多对多
关系)来了解数据结构的层级。
通过 Wren AI 中的计算定义您的业务 KPI 和公式。
添加表之间的语义关系。
现在您可以切换到 Wren AI UI 中的 Home
页面,通过点击 New Thread
开始提问任何业务问题,Wren AI 将通过向量存储搜索相关语义并提供建议。
Wren AI 将为您的业务问题显示最多 3 个选项;您可以选择最相关的选项来生成最终结果。
选择一个选项后,Wren AI 将显示摘要的逐步分解,包括 SQL 和数据,让您可以验证结果是否符合您的预期。
您可以提出后续问题以获得更深入的洞察。
就这样吧!希望您使用 gpt-4o
玩得开心!
立即用 AI 强化您的数据?!