LLM के दौर में लेखन
(sh-reya.com)- हाल के समय में LLM का उपयोग करके लेखन बढ़ा है, और इसके साथ अस्वाभाविक लेखन पैटर्न भी साफ़ तौर पर अधिक दिखने लगे हैं
- कमज़ोर summary sentences, bullet points का अत्यधिक उपयोग, एकरस sentence rhythm जैसी समस्याएँ LLM लेखन की प्रमुख कमियाँ हैं
- information density कम होना और अस्पष्ट अभिव्यक्तियाँ बार-बार सामने आती हैं, जिससे ठोस insight की कमी हो जाती है
- दूसरी ओर, इरादतन repetition, स्पष्ट signposting phrases, parallel structure जैसी चीज़ें अक्सर LLM शैली समझ ली जाती हैं, जबकि वे वास्तव में प्रभावी लेखन उपकरण हैं
- लेखक इस बात पर ज़ोर देता है कि LLM को outline design, draft generation, और आंशिक rewrite में उपयोगी सहायक की तरह लिया जा सकता है, लेकिन अंतिम निर्णय और गहराई वाला कंटेंट बनाना अब भी इंसान का काम है
Common Patterns of Bad Writing I See from LLM Tools
- पिछले कुछ वर्षों में कई technical papers और blog posts लिखते और review करते हुए, लेखक ने बार-बार यह महसूस किया कि LLM-आधारित लेखन में कुछ न कुछ हल्का-सा "अटपटा और कम आकर्षक" ज़रूर लगता है
- साथ ही, draft तैयार करने, जटिल सामग्री का सार निकालने, और बिखरे विचारों को व्यवस्थित करने में LLM का उपयोग बहुत मददगार भी साबित हुआ है
- इस लेख में लेखक उन खराब लेखन पैटर्नों को साझा करता है जो LLM अक्सर बनाते हैं, उन लेखन आदतों को भी जो आमतौर पर “LLM style” समझ ली जाती हैं लेकिन वास्तव में ठीक हैं, और वे writing तथा prompting rules भी जिन्हें वह खुद इस्तेमाल करता है
Empty “summary” sentences that pretend to conclude a thought
- किसी paragraph के अंत में “By following these steps, we achieve better performance.”, “By internalizing these principles, you can cut through the noise.” जैसे ऐसे summary sentences अक्सर आ जाते हैं जो निष्कर्ष जैसे लगते हैं, लेकिन वास्तव में कोई ठोस अर्थ नहीं देते
- “इस प्रक्रिया का पालन करने पर बेहतर performance मिल सकती है”
- “इन सिद्धांतों को आत्मसात करने पर आप भ्रम को पार कर सकते हैं”
- ऐसे वाक्य पाठक को न कोई नई insight देते हैं, न सोचने के लिए कोई ठोस बिंदु
- लेखक को भी अभी तक ऐसा पक्का तरीका नहीं मिला है जिससे LLM से इस तरह के वास्तविक संदेश वाले वाक्य लगातार लिखवाए जा सकें
Overuse of bullet points and outlines
- LLM में bullet points (list) और outlines का ज़रूरत से ज़्यादा उपयोग करने की प्रवृत्ति होती है
- जब items समानांतर और स्वतंत्र हों, तब list उपयोगी होती है, लेकिन जहाँ ideas आपस में जुड़े हों या context महत्वपूर्ण हो, वहाँ paragraph ज़्यादा उपयुक्त होता है
Flat sentence rhythm
-
जब हर वाक्य लगभग एक जैसी लंबाई और संरचना में दोहराया जाता है, तो लेखन उबाऊ हो जाता है और पाठक के लिए उसे पढ़ते जाना कठिन हो सकता है
-
sentence length और rhythm में विविधता लाना ज़रूरी है, ताकि emphasis, attention shift, और pacing को नियंत्रित किया जा सके
-
Bad example:
"We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates."
"हमने हाल ही में एक conversational AI feature लॉन्च किया है जो users को plain English में सवाल पूछने और उनकी पिछली activity तथा current session के आधार पर जवाब पाने देता है। यह system help articles के database में खोज करता है, custom scoring function से सबसे relevant entries को rank करता है, और top result को language model में भेजकर final answer तैयार करता है। latency को 300 milliseconds से नीचे रखने के लिए हमने caching, irrelevant articles को prune करने और prompt templates को tune करने जैसे हर step पर कई हफ्ते लगाए।" -
Good example:
"We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques."
"हमने अभी एक नया conversational AI feature लॉन्च किया है। यह current session के context का उपयोग करके users के सवालों का plain language में जवाब देता है। system help articles में खोज करता है, custom ranking function से उन्हें score करता है, top result को fine-tuned language model में भेजता है, और caching, pruning, तथा prompt tuning techniques की मदद से 300ms के भीतर काम करता है।"
-
Not the right subject
- subject का गलत चयन होने पर वाक्य का मुख्य बिंदु धुंधला पड़ जाता है
- Bad example:
"Readers are better guided when the subject matches the main idea of the sentence."
"जब subject वाक्य के मुख्य विचार से मेल खाता है, तब readers को बेहतर दिशा मिलती है" - Good example:
"Choosing the right subject keeps the writing clear and focused."
"सही subject चुनने से लेखन स्पष्ट और केंद्रित रहता है"
- Bad example:
- सही subject का चयन लेखन की consistency और focus के लिए महत्वपूर्ण है
Low information density
- नीचे Gemini 2.5 Pro से मिले LLM-generated लेखन का एक उदाहरण है:
"As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing."
"जटिल जानकारी को लिखने, review करने और तोड़कर समझाने का काम करने वाले व्यक्ति के रूप में, मुझमें खराब लेखन के प्रति एक तीखी असहिष्णुता विकसित हो गई है। और हाल के समय में उस खराब लेखन का एक खास, कृत्रिम स्वाद दिखता है—LLM की साफ़ पहचानी जाने वाली गंध। यह पोस्ट लेखन की नई दुनिया में रास्ता ढूँढने की एक guide है, चाहे LLM की मदद हो या न हो। पहले मैं LLM-generated text की असली कमियों पर बात करूँगा—वे red flags जो इसे बेजान और अविश्वसनीय बनाते हैं।" - sentence structure और grammar तो पूरी तरह सही हैं, लेकिन ठोस insight, विशिष्ट जानकारी, या तर्क की प्रगति नदारद है
Vagueness
- LLM लेखन में specificity से बचने की प्रवृत्ति बहुत मज़बूत होती है
- यह ideas को स्पष्ट रूप से define नहीं करता, बिना सबूत के दावे करता है, या यह साफ़ नहीं करता कि बात किसके बारे में हो रही है
“Some experts say prompt engineering is becoming less important. The ability to simply prompt LLMs can have a major impact on productivity.”
“कुछ experts कहते हैं कि prompt engineering की अहमियत कम हो रही है। LLMs को सिर्फ prompt कर पाने की क्षमता productivity पर बड़ा असर डाल सकती है।”
→ इसमें यह स्पष्ट नहीं है कि कौन, किस संदर्भ में, और किन लोगों की productivity पर असर की बात कर रहा है; यानी ठोस आधार और लक्ष्य की कमी है
Overuse of demonstrative pronouns
- "this", "that", "these", "those" जैसे demonstrative pronouns का अत्यधिक उपयोग बढ़ जाता है
- यदि जिस noun की ओर संकेत किया जा रहा है वह स्पष्ट न हो, तो पाठक के लिए बात पकड़ना मुश्किल हो जाता है
“This creates friction in production.”
“इससे production environment में friction पैदा होता है”
यहाँ "this/यह" किस चीज़ की ओर इशारा कर रहा है, यह स्पष्ट नहीं है
Fluency without understanding
- ऊपरी तौर पर सहज लेकिन वास्तव में कम explanatory value वाले वाक्य अक्सर दिखाई देते हैं
“LLMs use attention mechanisms to generate contextually appropriate responses.”
“LLM context के अनुरूप responses बनाने के लिए attention mechanisms का उपयोग करते हैं”
→ अगर पाठक को attention क्या है, यह नहीं पता, तो यह वाक्य वास्तव में कोई जानकारी नहीं देता - LLM ऐसे terms भी गढ़ देता है जो वास्तव में मौजूद नहीं होते
“We used GPT-4 for summarization, but it hallucinated details, so we added retrieval grounding.”
“हमने summarization के लिए GPT-4 का उपयोग किया, लेकिन इसने तथ्य गढ़ दिए, इसलिए हमने retrieval grounding जोड़ दिया।”
→ “retrieval grounding” वास्तव में कोई स्थापित term नहीं है - LLM पाठक की पृष्ठभूमि-ज्ञान और कहाँ व्याख्या ज़रूरी है, यह ठीक से नहीं समझ पाता, इसलिए कठिन हिस्सों को अक्सर छोड़ देता है
Writing Patterns People Flag as “LLM-Like,” But Are Actually Fine
- लोग कुछ पैटर्नों को LLM शैली मानकर ज़रूरत से ज़्यादा संदेह की नज़र से देखते हैं, जबकि वे वास्तव में प्रभावी और सामान्य लेखन शैली हो सकते हैं
- महत्वपूर्ण बात यह नहीं है कि लेखन मॉडल जैसा न लगे, बल्कि यह है कि उसमें clarity, intention, और control हो
Intentional repetition
- repetition जटिल ideas को स्पष्ट करने या ज़ोर देने के लिए प्रभावी हो सकती है
"Vector databases store embeddings, or mathematical representations that capture semantic meaning in hundreds of dimensions. In other words, vector databases help find results that are “close” in meaning, not just exact text matches."
“Vector databases embeddings को store करते हैं, यानी ऐसे mathematical representations जो सैकड़ों dimensions में semantic meaning को पकड़ते हैं। दूसरे शब्दों में, vector databases ऐसे results ढूँढने में मदद करते हैं जो अर्थ के लिहाज़ से ‘करीब’ हों, सिर्फ exact text match वाले न हों।”
Signposting phrases
- "essentially", "in short", "the point is..." जैसे signposting phrases उपयोगी होते हैं, बशर्ते इनके बाद वास्तव में कोई ठोस जानकारी आए
उदाहरण:
"Essentially, instead of classifying the document as a whole, we classify each section independently."
“मूल रूप से, पूरे document को classify करने के बजाय हम हर section को स्वतंत्र रूप से classify करते हैं।”
Parallel structure
- parallel structure ideas को व्यवस्थित ढंग से पेश करने और sentence flow को सहज बनाने में मदद करती है
"The system scales across inputs, stays responsive under load, and returns consistent results even with noisy prompts."
“यह system अलग-अलग inputs पर scale करता है, load के दौरान responsive रहता है, और noisy prompts के बावजूद consistent results देता है।”
Section headings that echo a structure
- “Why X fails”, “What to do instead”, “How to know if it worked” जैसी पूर्वानुमेय संरचना वाली section headings तब पूरी तरह प्रभावी हैं जब उनका कंटेंट स्पष्ट हो
Declarative openings
- दृढ़ declarative sentence से किसी section की शुरुआत करना, अगर उसके पीछे पर्याप्त सबूत या व्याख्या हो, तो लेखन का focus और मजबूत करता है
उदाहरण:
"LLM evaluations are hard to get right. Many rely on user-defined gold labels or vague accuracy metrics, which do not work for subjective or multi-step tasks."
“LLM evaluations को सही ढंग से करना कठिन है। कई मूल्यांकन user-defined gold labels या अस्पष्ट accuracy metrics पर निर्भर करते हैं, जो subjective या multi-step tasks के लिए काम नहीं करते।”
Em dashes
- em dash (—) वाक्य के भीतर अतिरिक्त स्पष्टीकरण, rhythm में बदलाव, या तेज़ transition के लिए उपयोगी है
- इसका सही उपयोग स्वाभाविक बोलचाल जैसी flow और emphasis में मदद करता है
How I Write with LLMs
- लेखक लेखन में flow (momentum) बनाए रखने को सबसे महत्वपूर्ण मानता है
- वास्तविक paper या blog post लिखने की उसकी प्रक्रिया आमतौर पर कुछ ऐसी होती है
- outline की योजना बनाना (कागज़ पर लिखकर या दिमाग में बनाकर)
- draft तैयार करना
- लिखी हुई सामग्री को पढ़ना और आलोचनात्मक review करना
- revision करना
- यह प्रक्रिया sentence level, section level, या अलग-अलग दायरों में बार-बार दोहराई जा सकती है
- अलग-अलग लोगों को planning, drafting, या revision के अलग-अलग चरणों में रुकावट आती है
- लेखक outlines जल्दी बना लेता है, लेकिन phrasing में अक्सर अटकता है
- वह LLM को रुके हुए हिस्से से आगे बढ़ने और draft structure जल्दी बनाने के उपकरण की तरह सक्रिय रूप से उपयोग करता है
Narrate the story to the model
- draft की शुरुआत में वह ऐसे ढीले-ढाले तरीके से कहानी लिखकर LLM में डालता है जैसे किसी सहकर्मी को structure समझा रहा हो, और फिर उससे detailed outline बनवाने को कहता है
- structure साफ़ होने तक इस प्रक्रिया को दोहराया जाता है
Write the paragraph myself, even if it’s rough
- outline तैयार हो जाने पर, वह हर paragraph खुद लिखने की कोशिश करता है, चाहे वह rough ही क्यों न हो
- अगर वाक्य को अंत तक ले जाना मुश्किल हो, तो वह LLM से “finish it” जैसा निर्देश देकर कई पूर्ण versions बनवाता है, उनमें से सबसे अच्छा चुनता है, और ज़रूरत हो तो थोड़ा बदलकर इस्तेमाल करता है
“In the last couple of years, I’ve written and reviewed several technical papers and blog posts. Something always feels slightly off, enough to make the writing quietly uninviting. At the same time, I feel like I get tremendous value from using LLMs to write…” “finish it”
“पिछले कुछ वर्षों में मैंने कई technical papers और blog posts लिखे और review किए हैं। हमेशा कुछ न कुछ हल्का-सा गलत लगता है, इतना कि लेखन चुपचाप अपनी आकर्षकता खो देता है। उसी समय मुझे लगता है कि LLMs का उपयोग करके लिखने से मुझे बहुत बड़ा लाभ मिलता है…” “finish it”
→ model कई सुझाव देता है, उनमें से सबसे अच्छा चुना जाता है, फिर थोड़ा संपादित कर आगे बढ़ा जाता है
Use scoped rewrite strategies during revision
- जब कोई paragraph या sentence अटपटा लगे, तो “make it better” कहने के बजाय LLM को ठोस निर्देश या patterns (जैसे rhetorical structure) दिए जाते हैं
- उदाहरण रणनीतियाँ:
- subject और verb को संभव हो तो एक-दूसरे के पास, sentence की शुरुआत में रखना
- SWBST (कौन, क्या चाहता था, कौन-सी बाधा आई, कैसे प्रतिक्रिया दी गई, और नतीजा क्या रहा) संरचना का उपयोग
- उदाहरण:
"We used GPT-4 for summarization. We wanted fluent answers, but it hallucinated facts. So we added a retrieval step. Then we re-ranked outputs based on citation accuracy."
“हमने summarization के लिए GPT-4 का उपयोग किया। हमें fluent answers चाहिए थे, लेकिन इसने तथ्य गढ़ दिए। इसलिए हमने एक retrieval step जोड़ा। फिर citation accuracy के आधार पर outputs को दोबारा rank किया।” - SWBST structure technical writing में भी motivation, problem, response, और outcome को संक्षेप में बताने का प्रभावी तरीका है
- उदाहरण:
Parting Thoughts
- अब हम ऐसे दौर में हैं जहाँ मध्यम स्तर का लेखन (औसत गुणवत्ता) LLM की मदद से आसानी से तैयार किया जा सकता है
- लेकिन क्या लिखना है, कौन-सा perspective और structure चुनना है, और कहाँ गहराई में जाना है, इसका निर्णय अभी भी इंसान को ही करना होता है
- सच में अच्छा लेखन वही है जिसमें उसकी लंबाई के अनुपात में वास्तविक योगदान हो, और जो पाठक के समय के योग्य हो
- इसी मानक तक पहुँचना लेखक का लक्ष्य है
1 टिप्पणियां
मुझे उस मायने में GeekNews अच्छा लगता है क्योंकि इसकी information density काफ़ी ज़्यादा है.
और जो यह
음슴체में खत्म होता है, वह सच में density optimization जैसा लगता है.