在OpenAI之后,对法国竞争对手Mistral AI的POC研究!

引言

本文探讨了一个作为与Mistral AI交互的概念验证(POC)开发的Python脚本,Mistral AI是一个法国的OpenAI替代方案。 此脚本借鉴了之前开发的用于与OpenAI交互的脚本的原理。

与GPT-4合作开发脚本

该项目是与ChatGPT-4合作的,ChatGPT-4是OpenAI的最新对话AI版本。我们一起设计了这个Python脚本,利用了GPT-4理解和生成代码的能力。人类专业知识与人工智能之间的这种协同作用,为开发和创新的新方法铺平了道路。

脚本目标

主要意图是通过Python来尝试Mistral AI的API,以此来发展我的相关技能。

  • 测试Mistral AI:探索Mistral AI的功能并了解如何有效使用它。
  • 用Python实现自动化:展示如何使用Python自动化与AI API的交互。
  • 提示的丰富:通过整合通过Selenium恢复的Web内容来尝试提示的丰富。

脚本潜力

这个脚本开启了各种应用的可能性,包括:

  • 生成丰富的内容:通过从网络上获取相关信息动态地丰富提示。
  • 个性化虚拟助理:使用AI根据网络内容创建个性化回复。
  • 改善自动化工具:将AI整合到现有工具中以提高性能。

脚本功能

mistral-ai.py脚本使用mistral-small模型产生回答。以下是它的工作原理:

  1. 获取网页内容:使用Selenium从指定在提示中的URL提取内容。
  2. 生成回答:将丰富的提示发送到Mistral AI以获得回答。

重要说明

  • 此脚本属于POC:它旨在用于教育和实验目的,并非用于生产环境。
  • 始终遵守API和网站使用规则:在使用MistralAI API和抓取网站时,确保遵守使用条件和隐私政策。

mistral-ai.py脚本代码

#!/usr/bin/env python3
import re
import sys
import os 
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage


def get_web_content(url):
    if not url:
        return ""

    # Configure Chrome options
    chrome_options = Options()

    # Create a new browser instance with the configured options
    driver = webdriver.Chrome(options=chrome_options)

    # Make a request to the web page
    driver.get(url)

    # Retrieve the JavaScript content of the page
    web_content = driver.execute_script("return document.documentElement.innerText")

    # Don't forget to close the browser when you're done
    driver.quit()

    return web_content

def get_response(question, client):
    urls = re.findall(r'(https?://\S+)', question)
    if urls:  # Vérifiez si une URL a été fournie
        for url in urls:
            web_content = get_web_content(url)
            if web_content:
                # Remplacez l'URL par le contenu du web dans le prompt
                question = question.replace(url, web_content)

    messages = [ChatMessage(role="user", content=question)]
    response = client.chat(model=model, messages=messages, safe_mode=False)

    for choice in response.choices:
        print(f"{choice.message.content}")


# Récupération de la question depuis l'argument de la ligne de commande
question = sys.argv[1] if len(sys.argv) > 1 else "Quelle est votre question ?"

api_key = os.getenv("MISTRAL_API_KEY", "YOUR_MISTRAL_API_KEY")
model = "mistral-small"

try:
    client = MistralClient(api_key=api_key)
    get_response(question, client)
except Exception as e:
    print(f"Une erreur est survenue : {e}")

try:
    del client
except TypeError:
    pass

脚本详细解释

导入模块

  • os, sys:用于操作系统交互。
  • argparse:处理命令行参数。
  • re:处理正则表达式的模块。
  • webdriver:允许使用Selenium在网络浏览器中自动处理操作。

函数get_web_content

  • 这个函数使用Selenium导航至一个URL并获取其内容。
  • 它对于用互联网上的信息丰富提示来说至关重要。

函数get_response

  • 处理提示中发现的URLs。
  • 通过get_web_content检索其内容。
  • 将丰富的提示发送到Mistral AI以获得回答。

main

  • 脚本的入口点。
  • 处理命令行参数。
  • 初始化Mistral AI客户端并处理回答。

使用Mistral AI

  • 脚本与mistral-small模型互动。
  • 它发送提示,并通过网络内容丰富,到Mistral AI以获得相关的回答。

本脚本概览让人了解其工作方式和结构,并说明了它如何利用Python、Selenium和Mistral AI来自动化和丰富与AI的互动。

使用示例

# Optionnel - Vous aurez peut être besoin d'installer les dépendances : 
pip install selenium
pip install mistralai

# Définir la clé API Mistral AI
export MISTRAL_API_KEY="votre_clé_api"

# on rend le script executable
chmod 700 mistral-ai.py

./mistral-ai.py "Résume en français ce contenu : https://platform.openai.com/docs/guides/prompt-engineering"

Ce guide partage des stratégies et tactiques pour obtenir de meilleurs résultats des grands modèles linguistiques (parfois appelés modèles GPT, tels que GPT-4). Les méthodes décrites peuvent être déployées en combinaison pour un effet plus important. L'expérimentation est encouragée pour trouver les méthodes qui fonctionnent le mieux pour vous.

Certains des exemples présentés fonctionnent actuellement uniquement avec le modèle le plus capable, gpt-4. En général, si vous constatez qu'un modèle échoue à une tâche et qu'un modèle plus capable est disponible, il vaut souvent la peine d'essayer à nouveau avec le modèle plus capable.

Des exemples de invites sont également fournis pour montrer ce que les modèles sont capables de faire.

Voici les six stratégies présentées dans le guide :

1. Rédiger des instructions claires
2. Fournir des détails dans votre requête pour obtenir des réponses plus pertinentes
3. Demander au modèle d'adopter une personnalité
4. Utiliser des délimiteurs pour indiquer distinctement les parties de l'entrée
5. Spécifier les étapes requises pour terminer une tâche
6. Fournir des exemples et spécifier la longueur de la sortie

Le guide décrit également des tactiques pour améliorer les performances des modèles, telles que la décomposition de tâches complexes en tâches plus simples, l'utilisation de références textuelles pour aider les modèles à fournir des réponses moins fabriquées, et l'utilisation de l\'exécution de code pour effectuer des calculs plus précis ou appeler des API externes.

Enfin, le guide présente des stratégies pour tester systématiquement les changements apportés aux systèmes en évaluant les sorties des modèles par rapport aux réponses standardisées.


# Sans url dans le prompt :
./mistral-ai.py "que sais tu faire ?"

Je suis capable de comprendre et de générer du langage naturel, ce qui me permet de répondre à une grande variété de questions, 
de traduire du texte d'une langue à une autre, de résumer du texte, de répondre à des demandes de manière polie, et bien plus encore. 
Je peux également effectuer des tâches telles que la recherche de informations sur le web, la programmation, la création de contenu 
et l'automatisation de tâches. 
Cependant, il est important de noter que mes compétences et connaissances sont limitées à ce qui m'a été appris et je suis dépendant 
de la qualité de l'information avec laquelle je suis entrainé.

该文档已由gpt-4-1106-preview模型从法文博客版本翻译而来。