av女 构建您的第一个 AI 智能体的齐全指南
AI智能体的愚弄场景日益粗俗。联系词,关于很多入门者来说av女,构建一个有用的AI智能体似乎是一项忙绿的任务。本文将为你提供一份详备的指南,匡助你随意迈出构建第一个AI智能体的第一步,并揭示其背后的旨趣和技巧。

在构建我的第一个交易 AI 智能体三个月后,在客户端演示时间,一切齐崩溃了。
本应是无缝的自主责任经过形成了一个反复的认识请乞降不一致的决定的苦闷轮回。客户仍然保持规则,但显明很失望。
他们离开后,我花了几个小时候析失败,发现我从压根上诬蔑了智能体架构——我构建了一个过于复杂的系统,决策规模很差,莫得明确的推理旅途。
那次失败编削了我的设施,并成为我发挥这些系统的基础。一朝你认识了中枢原则,构建有用的智能体就会变得卓著简短。
AI 智能体简介与仅响应辅导的聊天机器东谈主不同,智能体会主动并自行完成任务。它们是让某东谈主回答您联整个据的问题与让某东谈主践诺为您分析数据之间的区别。
从模子到智能体在智能体之前,咱们将 AI 贬责决议构建为孤独的、互不联系的组件 — 一个模子用于认识文本,另一个模子用于生成代码,另一个模子用于处理图像。
这种碎屑化的设施
迫使用户手动经管责任经过;导致在不同系统之间转移时陡立文褪色;需要为每个经过程序构建自界说集成;智能体编削了这种范式。
与处理孤苦任务的传统模子不同,智能体经管各式功能,同期保持对整个这个词任务的合座认识。
智能体不仅顺从辅导,还会凭据在此过程中学到的信息进行调养并作念出联系后续程序的聪慧决策,访佛于咱们东谈主类的作姿色。
智能体的中枢上风让咱们通过检讨特定任务来了解智能体的才智。
传统 AI 将其分为几个孤苦的程序 — 追思、提真金不怕火要道术语、对内容进行分类和生成观点 — 每个程序齐需要明确的东谈主工配合。
终局不仅在于模子孤苦责任,还在于您必须手动对整个这个词过程进行排序,显式经管程序之间的常识传递,并凭据中间成果孤独笃定需要哪些其他作。
比较之下**,基于智能体的设施不错自主奉行每个程序,而不会失去更粗俗宗旨的一面**。
智能体智能的构建块AI 智能体基于三个基本原则:
状况经管:智能体的责任顾虑追踪陡立文,了解它所学到的内容和旨在完成的任务;决策:智能体凭据面前常识笃定哪种设施有真义;用具使用:智能体知谈哪个用具贬责了每个特定问题;使用 LangGraph 构建 AI 智能体面前您照旧了解了什么是 AI 智能体以及它们为什么进犯,让咱们使用 LangGraph(LangChain 用于构建开阔的 AI 智能体的框架)构建一个智能体。
我确切心爱 LangGraph 的地点在于,它不错让您将智能体的想维和行径映射为图表。每个节点代表一种才智(如搜索 Web 或编写代码),节点(边际)之间的贯串限度信息流。
当我开动构建智能体时,这种设施对我来说很有真义,因为我践诺上不错可视化我的智能体想维过程。
您的第一个智能体:Medium Articles Analyzer让咱们望望何如使用 LangGraph 创建文天职析智能体。
该智能体将阅读著述,弄了了它们的内容,提真金不怕火进犯元素,并提供干净的节录——践诺上是您的私东谈主研讨助理。
确立环境
最初,您需要确立您的开采环境。
第 1 步 — 创建形式目次:
mkdir ai_agent_project cd ai_agent_project
第 2 步 — 创建并激活假造环境:
On Windows
python -m venv agent_env agent_envScriptsactivate
On macOS/Linux
python3 -m venv agent_env source agent_env/bin/activate
第 3 步 — 安设必要的软件包:
pip install langgraph langchain langchain-openai python-dotenv
第 4 步 — 确立您的 OpenAI API:
我使用 GPT-4o mini 四肢咱们智能体的大脑,但您不错将其交换为您心爱的任何LLM。若是您莫得 API 密钥:
第 5 步 — 创建一个 .env 文献
On Windows
echo OPENAI_API_KEY=your-api-key-here > .env
On macOS/Linux
echo “OPENAI_API_KEY=your-api-key-here” > .env
将 ‘your-api-key-here’ 替换为您的 OpenAI API 密钥。
第 6 步 – 创建名为test_setup.py的测试文献
python
import os
from dotenv import load_dotenvav女
from langchain_openai import ChatOpenAI
Load environment variables
load_dotenv
Initialize the ChatOpenAI instance
llm = ChatOpenAI(model=”gpt-4o-mini”)
Test the setup
response = llm.invoke(“Hello! Are you working?”) print(response.content)
第 7 步 — 运行测试:
python test_setup.py
若是您收到恢复,恭喜,您的环境已准备好构建智能体!
创建咱们的第一个智能体咱们的智能体需要内存来追踪它的进程,咱们不错使用 TypedDict 创建它:
The original question or task
class State(TypedDict): text:
Tracks the agent’s thinking and decisions
str classification:
Stores intermediate results from tools
str entities: List[str] summary: str
这种结构让咱们的智能体记取您的苦求、追踪其推理、存储用具数据并准备最终谜底。使用TypeDict提供类型安全,若是咱们存储的数据类型不正确,它会发出劝诫,从而简化调试。
面前咱们的智能体有了内存,让咱们给它一些想考才智吧!
llm = ChatOpenAI(model=”gpt-4o-mini”, temperature=0)
确立 Temperature=0 可确保咱们的智能体遥远聘请最可能的响应 — 这关于顺从特定推理模式的智能体至关进犯。四肢温习,温度充任 “创造力旋钮” LLMs:
温度 = 0:聚焦的笃定性响应
温度=1:更多种类、更有创意的输出
温度=2:狂野的、有时不连贯的想法
若是您的智能体作念极度怪的决定,请先检验您的温度确立!
添加智能体的功能面前,咱们将为智能体构建专诚的用具,每个用具处理特定的任务类型。
巨臀av一、咱们的分类才智:
def
summarize_node
(state):
Create a template for the summarization prompt
This tells the model to summarize the input text in one sentence
summarization_prompt = PromptTemplate.from_template(
“””Summarize the following text in one short sentence.
Text: {input}
Summary:”””
)
Create a chain by connecting the prompt template to the language model
The “|” operator pipes the output of the prompt into the model
chain = summarization_prompt | llm
Execute the chain with the input text from the state dictionary
This passes the text to be summarized to the model
response = chain.invoke({“input”: state[“input”]})
Return a dictionary with the summary extracted from the model’s response
This will be merged into the agent’s state
return {“summary”: response.content}
此功能将文档提真金不怕火为其重点的简明节录。
这些技巧谈论起来,使咱们的智能体省略认识内容类型、识别要道信息并创建易于认识的节录 — 每个函数齐顺从疏浚的模式,即获取面前状况、处理面前状况并将有用信息复返给下一个函数。
完成智能体结构面前,咱们将这些功能贯串到一个配合的责任流中:
workflow = StateGraph(State)
Add nodes to the graph
workflow.add_node(“classification_node”, classification_node)
workflow.add_node(“entity_extraction”, entity_extraction_node)
workflow.add_node(“summarization”, summarization_node)
Add edges to the graph
workflow.set_entry_point(“classification_node”) # Set the entry point of the graph
workflow.add_edge(“classification_node”, “entity_extraction”)
workflow.add_edge(“entity_extraction”, “summarization”)
workflow.add_edge(“summarization”, END)
Compile the graph
app = workflow.compile
您照旧构建了一个智能体,该智能体按配合的规律从分类到实体提真金不怕火再到节录,使其省略认识文本类型、识别进犯实体、创建节录,然后完成该过程。
智能体在行径面前,让咱们使用示例文本测试咱们的智能体:
Define a sample text about Anthropic’s MCP to test our agent
sample_text = “””
Anthropic’s MCP (Model Context Protocol) is an open-source powerhouse that lets your applications interact effortlessly with APIs across various systems.
“””
Create the initial state with our sample text
state_input = {“text”: sample_text}
Run the agent’s full workflow on our sample text
result = app.invoke(state_input)
Print each component of the result:
– The classification category (News, Blog, Research, or Other)
print(“Classification:”, result[“classification”])
– The extracted entities (People, Organizations, Locations)
print(“Entities:”, result[“entities”])
– The generated summary of the text
print(“Summary:”, result[“summary”])
运行此代码融会过每个功能处理文本:
实体:[‘Anthropic’, ‘MCP’, ‘Model Context Protocol’]
简介: Anthropic 的 MCP 是一种开源条约,相沿与各式 API 系统进行无缝愚弄程序交互。
令东谈主印象深远的不单是是最终成果,还有每个阶段何如建造在前一个阶段之上。这响应了咱们我方的阅读过程:咱们最初笃定内容类型,然后笃定进犯的称呼和主见,临了创建贯串整个内容的神色追思。
这种智能体构建设施远远超出了咱们的本领示例。您不错将访佛确凿立用于:
个东谈主发展著述 — 对增长规模进行分类,提真金不怕火可作的残忍,并追思要道观点;初创公司首创东谈主的故事 — 了解交易模式、融资模式和增长计策;家具指摘 — 识别功能、品牌和残忍;AI 智能体的局限性咱们的智能体在咱们筹商的节点和贯串的刚性框架内责任。
这种可展望的终局了它的稳妥性。与东谈主类不同,智能体顺从固定的旅途,在濒临巧合情况时无法调养。
陡立文认识是另一个终局。这个智能体不错处理文本,但模糊东谈主类当然掌捏的更粗俗的常识和文化幽微诀别。智能体在提供的文本范围内运作,尽管添加互联网搜索不错匡助补充其常识。
黑匣子问题也存在于智能体系统中。咱们看到输入和输出,但看不到里面决策。像 GPT-o1 或 DeepSeek R1 这么的推理模子通过展示它们的想维过程来提供更高的透明度,尽管咱们仍然无法统统限度里面发生的事情。
临了,这些系统并非统统自主,需要东谈主工监督,尤其是在考据输出和确保准确性方面。与任何其他 AI 系长入样,将 AI 功能与东谈主工监督相谈论,不错赢得最好成果。
了解这些终局有助于咱们构建更好的系统,并确切地知谈何时需要东谈主类介入。将 AI 功能与东谈主类专科知知趣谈论,不错赢得最好成果。
本文由 @来学习一下 原创发布于东谈主东谈主齐是家具司理。未经作家许可,阻截转载
题图来自Unsplash,基于CC0条约
该文不雅点仅代表作家本东谈主av女,东谈主东谈主齐是家具司理平台仅提供信息存储空间奇迹