Mistral入门指南:介绍




Mistral 推出的开源 Mixtral 8x7B 模型采用了“专家混合”(MoE)架构。与传统的 Transformer 不同,MoE 模型内置多个专家级前馈网络(本模型为8个),在进行推理时,由一个门控网络负责选择两个专家进行工作。这样的设置让 MoE 在保持与大型模型相当的性能的同时,能够实现更快的推理速度。Mixtral 8x7B 模型共有 46.7B 参数,但在实际推理时仅激活其中的 12.9B 参数来预测下一个 Token。


在《Mistral 入门指南》课程中,由 Mistral 的 Sophia Yang, Ph.D. 主讲,你将会了解到:


- 通过 API 调用及 Mistral AI 的 Le Chat 网站,探索 Mistral 的开源模型(Mistral 7B、Mixtral 8x7B)及商业模型。

- 实施 JSON 模式来生成可直接融入大型软件系统的结构化输出。

- 学习如何使用函数调用进行工具操作,比如使用自定义 Python 代码查询表格数据。

- 将你的大语言模型(LLM)的响应与外部知识源结合,使用 RAG 技术增强实用性。

- 创建一个可以参照外部文档的 Mistral 驱动聊天界面。


本课程将助力提升你的提示工程能力。


探索 Mistral 的三种开源模型(Mistral 7B、Mixtral 8x7B 和最新的 Mixtral 8x22B)以及 Mistral 提供通过 Web 界面和 API 调用访问的三种商业模型(小型、中型和大型)。


利用 Mistral 的 JSON 模式以结构化 JSON 格式生成 LLM 响应,从而将 LLM 输出集成到更大的软件应用程序中。


使用 Mistral 的 API 调用用户定义的 Python 函数来执行 Web 搜索或从数据库检索文本等任务,从而增强 LLM 查找相关信息以回答用户查询的能力。


在本课程中,您将访问 Mistral AI 的开源和商业模型集合,包括 Mixtral 8x7B 模型和最新的 Mixtral 8x22B。您将了解如何为您的用例选择正确的模型,并实践有效的提示技术、函数调用、JSON 模式和检索增强生成 (RAG) 等功能。


更多的介绍:


通过 API 调用任务来访问和提示 Mistral 模型,并确定您的任务是简单任务(分类)、中等任务(编写电子邮件)还是高级任务(编码)复杂程度,并考虑速度要求来选择合适的模型。

学习使用 Mistral 的本机函数调用,您可以在其中提供 LLM 工具,它可以根据需要调用来执行传统代码更好执行的任务,例如查询数据库中的数值数据。

通过相似性搜索从头开始构建基本的 RAG 系统,正确地分块数据,创建嵌入,并将此工具作为聊天系统中的功能实现。

构建一个聊天界面以与 Mistral 模型交互并询问有关您上传的文档的问题。


在本课程结束时,您将能够利用 Mistral AI 领先的开源和商业模型。


Mistral 入门是一门适合初学者的课程,适合任何想要了解和使用 Mistral AI 的高级开源和商业LLMs集合的人。如果您已经参加了 ChatGPT Prompt Engineering for Developers 或 Prompt Engineering with Llama 2,那么这是一个很好的下一步!


如果想详细了解,可以点开视频下方的链接。

谢谢观看本视频。要是喜欢,请订阅、点赞。谢谢


课程链接:https://deeplearning.ai/short-courses/getting-started-with-mistral/


视频:https://youtu.be/IsNP4XZ6VBY

留言