•  


gpt_academic/docs/README.French.md at master · binary-husky/gpt_academic · GitHub
Skip to content

Latest commit

 

History

History
356 lines (261 loc) · 24.2 KB

README.French.md

File metadata and controls

356 lines (261 loc) · 24.2 KB

Remarque

Ce README a ete traduit par GPT (implemente par le plugin de ce projet) et n'est pas fiable a 100 %. Veuillez examiner attentivement les resultats de la traduction.

7 novembre 2023 : Lors de l'installation des dependances, veuillez choisir les versions specifiees dans le fichier requirements.txt . Commande d'installation : pip install -r requirements.txt .

Optimisation academique GPT (GPT Academic)

Si vous aimez ce projet, merci de lui donner une etoile ; si vous avez invente des raccourcis ou des plugins utiles, n'hesitez pas a envoyer des demandes d'extraction !

Si vous aimez ce projet, veuillez lui donner une etoile. Pour traduire ce projet dans une langue arbitraire avec GPT, lisez et executez multi_language.py (experimental).

Remarque

  1. Veuillez noter que seuls les plugins (boutons) marques en surbrillance prennent en charge la lecture de fichiers, et certains plugins se trouvent dans le menu deroulant de la zone des plugins. De plus, nous accueillons avec la plus haute priorite les nouvelles demandes d'extraction de plugins.

  2. Les fonctionnalites de chaque fichier de ce projet sont specifiees en detail dans le rapport d'auto-analyse self_analysis.md . Vous pouvez egalement cliquer a tout moment sur les plugins de fonctions correspondants pour appeler GPT et generer un rapport d'auto-analyse du projet. Questions frequemment posees wiki . Methode d'installation standard | Script d'installation en un clic | Instructions de configuration ..

  3. Ce projet est compatible avec et recommande l'experimentation de grands modeles de langage chinois tels que ChatGLM, etc. Prend en charge plusieurs cles API, vous pouvez les remplir dans le fichier de configuration comme API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4" . Pour changer temporairement la cle API, entrez la cle API temporaire dans la zone de saisie, puis appuyez sur Entree pour soumettre et activer celle-ci.

Fonctionnalites (? = fonctionnalite recemment ajoutee) Description
? Modeles acquis Baidu Qianfan et Wenxin Yiyuan, Tongyi Qianwen , Shanghai AI-Lab Shusheng , Xunfei Xinghuo , LLaMa2 , Zhifu API, DALLE3
Amelioration, traduction, explication du code Correction, traduction, recherche d'erreurs de syntaxe dans les articles, explication du code
Raccourcis personnalises Prise en charge de raccourcis personnalises
Conception modulaire Prise en charge de plugins puissants personnalisables, prise en charge de la mise a jour a chaud des plugins
Analyse de programme [Plugin] Analyse en profondeur d'un arbre de projets Python/C/C++/Java/Lua/... d'un simple clic ou auto-analyse
Lecture d'articles, traduction d'articles [Plugin] Lecture automatique des articles LaTeX/PDF et generation du resume
Traduction complete de LaTeX ou amelioration de leur qualite [Plugin] Traduction ou amelioration rapide des articles LaTeX
Generation de commentaires en masse [Plugin] Generation facile de commentaires de fonctions
Traduction chinois-anglais du Markdown [Plugin] Avez-vous vu le README dans les cinq langues ci-dessus ?
Generation de rapports d'analyse du chat [Plugin] Generation automatique d'un rapport recapitulatif apres l'execution du chat
Fonction de traduction complete des articles PDF [Plugin] Extraction du titre et du resume d'un article PDF, ainsi que traduction integrale (multithreading)
Assistant Arxiv [Plugin] Saisissez l'URL d'un article Arxiv pour traduire automatiquement le resume et telecharger le PDF
Correction automatique d'articles LaTeX [Plugin] Correction de la grammaire, de l'orthographe et comparaison avec le PDF correspondant, a la maniere de Grammarly
Assistant Google Scholar [Plugin] Donner l'URL d'une page de recherche Google Scholar pour obtenir de l'aide sur l'ecriture des references
Agregation d'informations sur Internet + GPT [Plugin] Obtenez les informations de l'Internet pour repondre aux questions a l'aide de GPT, afin que les informations ne soient jamais obsoletes
?Traduction detaillee des articles Arxiv ( Docker ) [Plugin] Traduction de haute qualite d'articles Arxiv en un clic, le meilleur outil de traduction d'articles a ce jour
? Saisie orale en temps reel [Plugin] Ecoute asynchrone de l'audio, decoupage automatique et recherche automatique du meilleur moment pour repondre
Affichage des formules, images, tableaux Affichage simultane de la forme TeX et rendue des formules, prise en charge de la mise en evidence des formules et du code
?Plugin AutoGen multi-agents [Plugin] Explorez les emergences intelligentes a plusieurs agents avec Microsoft AutoGen !
Activation du theme sombre Ajouter /?__theme=dark a l'URL du navigateur pour basculer vers le theme sombre
Prise en charge de plusieurs modeles LLM Experimentez avec GPT 3.5, GPT4, ChatGLM2 de Tsinghua , MOSS de Fudan simultanement !
?Modele ChatGLM2 fine-tuned Chargez et utilisez un modele fine-tuned de ChatGLM2, disponible avec un plugin d'assistance
Prise en charge de plus de modeles LLM, deploiement sur Huggingface Ajout de l'interface de connaissance-API, support de LLaMA et PanGuα
?Paquet pip void-terminal Accedez a toutes les fonctions et plugins de ce projet directement depuis Python (en cours de developpement)
?Plugin terminal du vide [Plugin] Utilisez un langage naturel pour interagir avec les autres plugins du projet
Affichage de nouvelles fonctionnalites (generation d'images, etc.) …… Voir a la fin de ce document ……
  • Nouvelle interface (modifiez l'option LAYOUT dans config.py pour basculer entre la disposition "gauche-droite" et "haut-bas")
  • Tous les boutons sont generes dynamiquement en lisant functional.py , vous pouvez donc ajouter de nouvelles fonctionnalites personnalisees et liberer le presse-papiers.
  • Retouche/correction
  • If the output contains formulas, they will be displayed in both tex and rendered forms for easy copying and reading.
  • Don't feel like looking at the project code? Just give it to ChatGPT to show off.
  • Multiple large language models are mixed and used together (ChatGLM + OpenAI-GPT3.5 + API2D -GPT4).

Installation

Method I: Run directly (Windows, Linux, or MacOS)

  1. Download the project
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd
 gpt_academic
  1. Configure API_KEY

In config.py , configure the API KEY and other settings. Click here to see methods for special network environment configurations . Wiki page .

「 The program will first check if there is a confidential configuration file named config_private.py , and use the configurations in that file to override the corresponding configurations in config.py . If you understand this logic, we strongly recommend creating a new configuration file named config_private.py right next to config.py , and move (copy) the configurations from config.py to config_private.py (only copy the configurations that you have modified). 」

「 You can also configure the project using environment variables . The format of the environment variables can be found in the docker-compose.yml file or on our Wiki page . The priority of configuration reading is: environment variables > config_private.py > config.py . 」

  1. Install dependencies
#
 (Option I: If you are familiar with Python, python>=3.9) Note: Use the official pip source or the Ali pip source. Temporary change of source method: python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/

python -m pip install -r requirements.txt

#
 (Option II: Use Anaconda) The steps are similar (https://www.bilibili.com/video/BV1rc411W7Dr):

conda create -n gptac_venv python=3.11    
#
 Create an anaconda environment

conda activate gptac_venv                 
#
 Activate the anaconda environment

python -m pip install -r requirements.txt 
#
 This step is the same as the pip installation step
If you need to support Tsinghua ChatGLM2/Fudan MOSS/RWKV as backends, click here to expand

[Optional Steps] If you need to support Tsinghua ChatGLM2/Fudan MOSS as backends, you need to install additional dependencies (Prerequisites: Familiar with Python + Have used PyTorch + Sufficient computer configuration):

#
 [Optional Step I] Support Tsinghua ChatGLM2. Comment on this note: If you encounter the error "Call ChatGLM generated an error and cannot load the parameters of ChatGLM", refer to the following: 1: The default installation is the torch+cpu version. To use cuda, you need to uninstall torch and reinstall torch+cuda; 2: If the model cannot be loaded due to insufficient computer configuration, you can modify the model precision in request_llm/bridge_chatglm.py. Change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).

python -m pip install -r request_llms/requirements_chatglm.txt

#
 [Optional Step II] Support Fudan MOSS

python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss  
#
 Note: You need to be at the root directory of the project when executing this line of code


#
 [Optional Step III] Support RWKV Runner

Refer to the wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner

#
 [Optional Step IV] Make sure that the AVAIL_LLM_MODELS in the config.py configuration file contains the expected models. The currently supported models are as follows (jittorllms series currently only support the docker solution):

AVAIL_LLM_MODELS = [
"
gpt-3.5-turbo
"
, 
"
api2d-gpt-3.5-turbo
"
, 
"
gpt-4
"
, 
"
api2d-gpt-4
"
, 
"
chatglm
"
, 
"
moss
"
] 
#
 + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]

  1. Run
python main.py

Method II: Use Docker

  1. Deploy all capabilities of the project (this is a large image that includes cuda and latex. But if you have a slow internet speed or a small hard drive, it is not recommended to use this)
#
 Modify the docker-compose.yml file, keep scheme 0 and delete the other schemes. Then run:

docker-compose up
  1. ChatGPT + Wenxin Yiyu + Spark and other online models (recommended for most people)
#
 Modify the docker-compose.yml file, keep scheme 1 and delete the other schemes. Then run:

docker-compose up

NOTE: If you need Latex plugin functionality, please refer to the Wiki. Additionally, you can also use scheme 4 or scheme 0 directly to obtain Latex functionality.

  1. ChatGPT + ChatGLM2 + MOSS + LLAMA2 + Tongyi Qianwen (requires familiarity with Nvidia Docker runtime)
#
 Modify the docker-compose.yml file, keep scheme 2 and delete the other schemes. Then run:

docker-compose up

Method III: Other deployment methods

  1. One-click run script for Windows . Windows users who are completely unfamiliar with the Python environment can download the one-click run script without local models from the Release section. The script was contributed by oobabooga .

  2. Use third-party APIs, Azure, Wenxin Yiyu, Xinghuo, etc., see the Wiki page .

  3. Pitfall guide for deploying on cloud servers. Please visit the cloud server remote deployment wiki .

  4. Some new deployment platforms or methods

Utilisation avancee

I: Personnalisation des nouveaux boutons d'acces rapide (raccourcis academiques)

Ouvrez core_functional.py avec n'importe quel editeur de texte, ajoutez les entrees suivantes, puis redemarrez le programme. (Si le bouton existe deja, le prefixe et le suffixe peuvent etre modifies a chaud sans redemarrer le programme). Par exemple:

"Traduction avancee de l'anglais vers le francais": {
    # Prefixe, ajoute avant votre saisie. Par exemple, utilisez-le pour decrire votre demande, telle que la traduction, l'explication du code, l'amelioration, etc.
    "Prefix": "Veuillez traduire le contenu suivant en francais, puis expliquer chaque terme propre a la langue anglaise utilise dans le texte a l'aide d'un tableau markdown : \n\n",

    # Suffixe, ajoute apres votre saisie. Par exemple, en utilisant le prefixe, vous pouvez entourer votre contenu par des guillemets.
    "Suffix": "",
},

II: Personnalisation des plugins de fonction

Ecrivez de puissants plugins de fonction pour accomplir toutes les taches que vous souhaitez ou ne pouvez pas imaginer. Le developpement et le debogage de ces plugins dans ce projet sont tres faciles. Tant que vous avez des connaissances de base en python, vous pouvez implementer vos propres fonctionnalites grace a notre modele fourni. Veuillez consulter le Guide des plugins de fonction pour plus de details.

Mises a jour

I: Dynamique

  1. Fonction de sauvegarde de conversation. Appelez Enregistrer la conversation en cours dans la zone des plugins fonctionnels pour enregistrer la conversation en cours sous la forme d'un fichier HTML lisible et recuperable. En outre, appelez Charger les archives de conversation dans la zone des plugins fonctionnels (menu deroulant) pour restaurer les conversations precedentes. Astuce: Si aucun fichier n'est specifie, cliquez directement sur Charger les archives de conversation pour afficher le cache des archives HTML.
  1. ? Fonction de traduction des articles Latex/Arxiv ?
===>
  1. Terminal du neant (comprendre l'intention de l'utilisateur a partir de la saisie en langage naturel et appeler automatiquement d'autres plugins)
  1. Conception de fonctionnalites modulaires, une interface simple peut prendre en charge des fonctionnalites puissantes
  1. Traduction et interpretation d'autres projets open-source
  1. Fonctionnalites supplementaires integrant live2d (desactive par defaut, necessite des modifications dans config.py )
  1. Generation d'images par OpenAI
  1. Analyse et resume audio par OpenAI
  1. Verification et correction orthographique complete du document en Latex
===>
  1. Changement de langue et de theme

II: Versions:

  • version 3.70(tache a accomplir) : Optimisation de la fonction AutoGen et creation d'une serie de plugins derives
  • version 3.60 : Introduction d'AutoGen comme base des nouveaux plugins
  • version 3.57 : Prise en charge de GLM3, Starlight v3, Zen v4 et correction de l'incompatibilite des modeles locaux
  • version 3.56 : Possibilite d'ajouter dynamiquement des boutons de fonction de base et nouvelle page de synthese des PDF
  • version 3.55: Refonte de l'interface utilisateur avec fenetres flottantes et barre de menu
  • version 3.54 : Nouvel interpreteur de code dynamique (Code Interpreter) (a ameliorer)
  • version 3.53 : Possibilite de choisir dynamiquement differents themes d'interface, amelioration de la stabilite et resolution des problemes de conflit entre utilisateurs multiples
  • version 3.50 : Utiliser le langage naturel pour appeler toutes les fonctions du projet (Terminal du neant), prise en charge de la classification des plugins, amelioration de l'interface utilisateur, conception de nouveaux themes
  • version 3.49 : Prise en charge de Baidu Qianfan et Xiaomi-Wenyiyan
  • version 3.48 : Prise en charge d'Ali-DA, Shanghai AI-Lab-Shusheng et Xunfei Xinghuo
  • version 3.46 : Prise en charge de la conversation audio temps reel sans intervention
  • version 3.45 : Prise en charge de la personnalisation du modele ChatGLM2
  • version 3.44 : Prise en charge officielle d'Azure, amelioration de l'utilisabilite de l'interface
  • version 3.4 : +traduction complete des articles Arxiv, +correction des articles Latex
  • version 3.3 : +fonction d'integration d'informations Internet
  • version 3.2 : Les plugins de fonction prennent en charge plus de parametres (fonction d'enregistrement de conversation, debogage de code de n'importe quel langage + demandes d'LLM arbitraires)
  • version 3.1 : Prise en charge de l'interrogation simultanee de plusieurs modeles gpt ! Prise en charge de l'API2D, repartition de charge entre plusieurs cles API
  • version 3.0 : Prise en charge de chatglm et d'autres petits llm
  • version 2.6 : Refonte de la structure des plugins, amelioration de l'interactivite, ajout de nouveaux plugins
  • version 2.5 : Auto-mise a jour, resolution des problemes de depassement de longueur de texte et de jeton pendant la consolidation de grands projets de codes sources
  • version 2.4 : (1) Nouvelle fonctionnalite de traduction complete des documents PDF ; (2) Nouvelle fonctionnalite de changement de position de la zone de saisie ; (3) Nouvelle option de disposition verticale ; (4) Optimisation des plugins de fonction multithreads.
  • version 2.3 : Amelioration de l'interactivite multi-threads
  • version 2.2 : Prise en charge du rechargement a chaud des plugins de fonction
  • version 2.1 : Mise en page pliable
  • version 2.0 : Introduction de plugins de fonction modulaires
  • version 1.0: Fonctionnalites de base

Groupe QQ des developpeurs de GPT Academic: 610599535

  • Problemes connus
    • Certains plugins de traduction de navigateurs peuvent nuire au fonctionnement de l'interface utilisateur de ce logiciel.
    • Gradio officiel a actuellement de nombreux bugs de compatibilite. Veuillez utiliser requirement.txt pour installer Gradio.

III: Themes

Vous pouvez modifier le theme en modifiant l'option THEME (config.py).

  1. Chuanhu-Small-and-Beautiful Lien

IV: Branches de developpement de ce projet

  1. Branche master : Branche principale, version stable
  2. Branche frontier : Branche de developpement, version de test

V: References et apprentissage

De nombreux designs de codes de projets exceptionnels ont ete references dans le developpement de ce projet, sans ordre specifique :

# ChatGLM2-6B de l'Universite Tsinghua:
https://github.com/THUDM/ChatGLM2-6B

# JittorLLMs de l'Universite Tsinghua:
https://github.com/Jittor/JittorLLMs

# ChatPaper :
https://github.com/kaixindelele/ChatPaper

# Edge-GPT :
https://github.com/acheong08/EdgeGPT

# ChuanhuChatGPT :
https://github.com/GaiZhenbiao/ChuanhuChatGPT



# Oobabooga installeur en un clic :
https://github.com/oobabooga/one-click-installers

# Plus:
https://github.com/gradio-app/gradio
https://github.com/fghrsh/live2d_demo
- "漢字路" 한글한자자동변환 서비스는 교육부 고전문헌국역지원사업의 지원으로 구축되었습니다.
- "漢字路" 한글한자자동변환 서비스는 전통문화연구회 "울산대학교한국어처리연구실 옥철영(IT융합전공)교수팀"에서 개발한 한글한자자동변환기를 바탕하여 지속적으로 공동 연구 개발하고 있는 서비스입니다.
- 현재 고유명사(인명, 지명등)을 비롯한 여러 변환오류가 있으며 이를 해결하고자 많은 연구 개발을 진행하고자 하고 있습니다. 이를 인지하시고 다른 곳에서 인용시 한자 변환 결과를 한번 더 검토하시고 사용해 주시기 바랍니다.
- 변환오류 및 건의,문의사항은 juntong@juntong.or.kr로 메일로 보내주시면 감사하겠습니다. .
Copyright ⓒ 2020 By '전통문화연구회(傳統文化硏究會)' All Rights reserved.
 한국   대만   중국   일본