Ahmed Rebai’s Post

View profile for Ahmed Rebai, graphic

Head of AI Delivery | Build Responsible & Sustainable AI Systems Within ISO/IEC 42001 Standard | Data Engineer | 3x GCP Certified

Je constate souvent des publications sur LinkedIn qui présentent le Prompt Engineering comme une nouvelle discipline révolutionnaire ou qui sous-estiment cette technique. Pourtant, cette approche existe déjà depuis 2019 avec les modèles pré-entraînés de Hugging Face (pour une tâche de résumé, on appelle le modèle en ajoutant l'instruction "summarize"). Exemple d'un code: """ # Preprocess the text inputs = tokenizer.encode("summarize: " + french_text, return_tensors="pt", max_length=1000, truncation=False) # Generate the summary summary_ids = model.generate(inputs, max_length=100, min_length=25, length_penalty=2.0, num_beams=4, early_stopping=True) summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True) """ Ce qui est crucial, et souvent sous-estimé, c'est l'art d'écrire un bon prompt. Cela ne se limite pas à donner des instructions simples. Il faut inclure un contexte adéquat et ajuster certains paramètres essentiels comme la température, le nombre de tokens, le top p, et le top k. Parfois, il est également nécessaire d'ajouter des garde-fous pour prévenir des issues de toxicité, d'abus sexuel ou de harcèlement (voir l'image en commentaire) Et surtout surtout n'oubliez pas à mettre tout ça en prod.! Finalement, je suis content de partager avec vous ce nouveau badge de google GCP: "Text Prompt Engineering Techniques" Skill Badge.

Text Prompt Engineering Techniques Skill Badge was issued by Google Cloud to Ahmed Rebai.

Text Prompt Engineering Techniques Skill Badge was issued by Google Cloud to Ahmed Rebai.

credly.com

Ahmed Rebai

Head of AI Delivery | Build Responsible & Sustainable AI Systems Within ISO/IEC 42001 Standard | Data Engineer | 3x GCP Certified

4mo

  • No alternative text description for this image
Jérôme Jammes

Enseignant de physique, mathématiques, DMS et SA chez DIP (département de l'instruction publique, Genève)

4mo

Merci pour ce post ! Tu soulignes bien l'importance des prompts dans le NLP. L'ajustement de paramètres comme la température, le nombre de tokens, et l'intégration de garde-fous sont essentiels pour des résultats précis et sûrs. Ton exemple de code est très pertinent.

See more comments

To view or add a comment, sign in

Explore topics