Je constate souvent des publications sur LinkedIn qui présentent le Prompt Engineering comme une nouvelle discipline révolutionnaire ou qui sous-estiment cette technique. Pourtant, cette approche existe déjà depuis 2019 avec les modèles pré-entraînés de Hugging Face (pour une tâche de résumé, on appelle le modèle en ajoutant l'instruction "summarize"). Exemple d'un code: """ # Preprocess the text inputs = tokenizer.encode("summarize: " + french_text, return_tensors="pt", max_length=1000, truncation=False) # Generate the summary summary_ids = model.generate(inputs, max_length=100, min_length=25, length_penalty=2.0, num_beams=4, early_stopping=True) summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True) """ Ce qui est crucial, et souvent sous-estimé, c'est l'art d'écrire un bon prompt. Cela ne se limite pas à donner des instructions simples. Il faut inclure un contexte adéquat et ajuster certains paramètres essentiels comme la température, le nombre de tokens, le top p, et le top k. Parfois, il est également nécessaire d'ajouter des garde-fous pour prévenir des issues de toxicité, d'abus sexuel ou de harcèlement (voir l'image en commentaire) Et surtout surtout n'oubliez pas à mettre tout ça en prod.! Finalement, je suis content de partager avec vous ce nouveau badge de google GCP: "Text Prompt Engineering Techniques" Skill Badge.
Merci pour ce post ! Tu soulignes bien l'importance des prompts dans le NLP. L'ajustement de paramètres comme la température, le nombre de tokens, et l'intégration de garde-fous sont essentiels pour des résultats précis et sûrs. Ton exemple de code est très pertinent.
Head of AI Delivery | Build Responsible & Sustainable AI Systems Within ISO/IEC 42001 Standard | Data Engineer | 3x GCP Certified
4mo