Có lẽ không ít người quan ngại về việc AI có thể chiếm mất công việc của con người, nhưng thực ra nếu biết sử dụng AI đúng cách thì đó chính là công cụ hỗ trợ bạn nâng tầm khả năng làm việc của bản thân. Vậy làm thế nào để AI trợ giúp theo đúng ý của bạn? Việc này phụ thuộc rất nhiều vào cách bạn giao tiếp với AI. Hay nói cách khác, cách bạn ra lệnh – “prompt” cho AI sẽ quyết định phần nhiều phản hồi của AI. Trong bài viết kỳ này, hãy cùng Lemon’s Tribe tìm hiểu về Prompt engineering – Nghệ thuật giao tiếp với AI nhé.

1. Prompting là gì? Vai trò của nó trong LLMs

Prompting hiểu đơn giản là việc cung cấp cho mô hình ngôn ngữ một đoạn hướng dẫn hoặc câu hỏi để mô hình biết người dùng muốn gì. Đây chính là cách chúng ta “giao tiếp” với các mô hình ngôn ngữ lớn (LLMs) như GPT-4, Claude, hay Google Gemini. Thay vì lập trình bằng mã, ta “lập trình” cho AI bằng ngôn ngữ tự nhiên. Một số mô hình LLMs còn cho phép prompt bằng hình ảnh, file audio, thay vì văn bản, ví dụ như GPT của Open AI.1

Một prompt tốt thường bao gồm hướng dẫn rõ ràng và cụ thể, giúp định hướng đầu ra của mô hình​ (model). Ngoài ra, prompt có thể là 1 câu lệnh hoặc câu hỏi nối đuôi (follow-up) cho phản hồi trước đó của mô hình, ví dụ như hỏi thêm thông tin chi tiết hơn từ câu trả lời của mô hình, hoặc cung cấp thêm dữ kiện để củng cố chất lượng của câu trả lời2. Trong hoạt động của LLMs, prompt giữ vai trò cầu nối giữa người dùng và mô hình. Mô hình chỉ có thể dựa vào prompt để hiểu nhiệm vụ được giao. Nếu prompt mơ hồ hoặc thiếu thông tin, mô hình rất khó đoán được chính xác ý định của người dùng. Các nghiên cứu cho thấy chất lượng và cách trình bày prompt ảnh hưởng mạnh đến kết quả sinh ra – chỉ cần thay đổi vài từ hoặc định dạng, câu trả lời của mô hình có thể khác biệt đáng kể​.3 Nói cách khác, prompt càng rõ ràng, đầy đủ, mô hình càng hiểu đúng yêu cầu và phản hồi sát với nhu cầu hơn. Prompting vì vậy cực kỳ quan trọng để tận dụng sức mạnh của LLMs, giúp mô hình tạo ra câu trả lời đúng hướng thay vì lan man hay sai lệch mục tiêu ban đầu của người dùng.

2. Vì sao prompt engineering then chốt trong việc điều chỉnh output của LLM?

Prompt engineering – tức kỹ thuật thiết kế prompt hợp lý – là chìa khóa giúp kiểm soát và điều chỉnh đầu ra của mô hình mà không cần can thiệp vào bên trong mô hình. Khác với fine-tuning (huấn luyện tinh chỉnh lại mô hình trên dữ liệu mới), prompt engineering không đòi hỏi huấn luyện thêm hay cập nhật trọng số nào; thay vào đó ta tối ưu cách đặt câu hỏi/hướng dẫn để “hướng” mô hình đến câu trả lời mong muốn. Điều này đặc biệt quan trọng khi chúng ta không thể hoặc không muốn fine-tune mô hình (ví dụ khi sử dụng các API mô hình đóng như GPT-4, hoặc không có đủ dữ liệu/hạ tầng để huấn luyện lại). Lúc này, prompt engineering là công cụ gần như duy nhất để tùy biến mô hình theo ý người dùng. Nó cũng rất nhanh và tiết kiệm – ta chỉ cần thử nghiệm với văn bản prompt, thay vì tốn hàng giờ huấn luyện như fine-tuning. Tài liệu từ Anthropic nhấn mạnh rằng so với fine-tuning đòi hỏi GPU mạnh và bộ nhớ lớn, prompt engineering chỉ cần văn bản đầu vào, nên thân thiện hơn về tài nguyên và chi phí4. Ngoài ra, ta có thể chỉnh sửa prompt và thấy kết quả ngay, cho phép “fail fast, learn faster” để tìm ra cách hỏi hiệu quả nhất​5.
Mặt khác, fine-tuning cũng có những lợi thế riêng và không hoàn toàn bị thay thế bởi prompt engineering. Fine-tuning tức là “dạy” thêm cho mô hình – nhờ đó mô hình có thể học kiến thức hoặc phong cách mới nằm ngoài dữ liệu huấn luyện gốc6. OpenAI cho biết việc fine-tune có thể giúp mô hình đạt chất lượng đầu ra cao hơn so với chỉ prompt không, cho phép học từ nhiều ví dụ hơn mức nhúng hết vào một prompt, đồng thời giúp tiết kiệm token ở prompt và giảm độ trễ khi truy vấn lặp lại​7. Nói ngắn gọn, fine-tuning giống như đào tạo một nhân viên để làm tốt hẳn một nhiệm vụ chuyên biệt, còn prompt engineering là cách người quản lý giao việc sao cho nhân viên hiểu đúng ý. Prompt hay có thể đủ để mô hình tổng quát hoàn thành một số nhiệm vụ chuyên môn. Thực tế, nhóm Microsoft Research nhận thấy chỉ bằng kỹ thuật prompt phù hợp, GPT-4 (một mô hình tổng quát) đã giải các bài kiểm tra y khoa chuyên ngành vượt qua cả mô hình đã fine-tune đặc biệt cho lĩnh vực y khoa8. Điều này cho thấy với mô hình nền đủ mạnh, prompt engineering tốt có thể khai mở tiềm năng chuyên môn tiềm ẩnmà không cần huấn luyện lại. Tuy vậy, trong những ứng dụng đòi hỏi độ chính xác và nhất quán cao nhất, kết hợp cả hai phương pháp có thể mang lại hiệu quả tối ưu. Nhiều tổ chức doanh nghiệp áp dụng song song fine-tuning và prompt engineering – fine-tune để mô hình nắm vững kiến thức/nhiệm vụ đặc thù, và prompt engineering để tinh chỉnh từng truy vấn cụ thể theo ý muốn​9. Tóm lại, prompt engineering là công cụ then chốt giúp định hướng mô hình mọi lúc mọi nơi, còn fine-tuning là bước nâng cấp mô hình khi cần thiết; hai phương pháp bổ trợ cho nhau tùy hoàn cảnh và mục tiêu cụ thể.

3. Prompting và kỹ năng giao tiếp: vai trò của ngữ cảnh, cách diễn đạt, khung tham chiếu

Thú vị là việc viết prompt cho AI có nhiều điểm tương đồng với kỹ năng giao tiếp hiệu quả giữa người với người. Anthropic từng khuyên người dùng hãy tưởng tượng AI như một thực tập sinh mới đi làm ngày đầu tiên – bạn cần đưa ra hướng dẫn thật rõ ràng, chi tiết kèm bối cảnh cần thiết, giống như cách bạn dặn dò một nhân viên mới​10. Nếu bạn chỉ nói úp mở hoặc chung chung, “thực tập sinh AI” dễ hiểu sai ý bạn, cũng như con người chúng ta nếu nhận chỉ thị mơ hồ sẽ lúng túng không biết làm gì. Vì vậy, một nguyên tắc quan trọng là càng rõ ràng và cụ thể càng tốt. Mỗi LLM đều “nhạy cảm” với đầu vào – “rác vào thì rác ra”, nên nếu prompt mơ hồ, chung chung, đầu ra thường sẽ thiếu chính xác hoặc không đúng ý​. Ngược lại, prompt diễn đạt mạch lạc, chi tiết những gì cần làm sẽ giúp AI hiểu đúng vấn đề hơn, cũng giống như khi ta nói chuyện, câu hỏi rõ ràng sẽ nhận được câu trả lời đúng trọng tâm. Nói chung, AI không phải nhà phê bình văn học để lúc nào cũng có thể ngầm hiểu hết các ý tứ trong câu nói của bạn.

Bên cạnh sự rõ ràng, ngữ cảnh và khung tham chiếu (framing) mà ta cung cấp cũng ảnh hưởng lớn đến chất lượng phản hồi của mô hình. Khi giao tiếp với con người, nếu chúng ta cung cấp thêm bối cảnh hoặc ví dụ, người nghe sẽ nắm vấn đề nhanh hơn và phản hồi phù hợp hơn. AI cũng vậy – prompt nên chứa những thông tin nền tảng hoặc giả định liên quan để mô hình có chất liệu “suy nghĩ”. Ví dụ, trước khi đặt câu hỏi khó, bạn có thể đưa một đoạn mô tả tình huống hoặc dữ liệu làm ngữ cảnh. Điều này giúp câu trả lời của AI liên quan và chính xác hơn11. Mặt khác, cách đặt câu hỏi và giọng điệu (tone) của prompt cũng định hình phản hồi. Trong giao tiếp hàng ngày, cách bạn hỏi (lịch sự, nghiêm túc, hay hài hước) sẽ ảnh hưởng tới cách đối phương trả lời. Tương tự, bạn có thể “đặt vai” cho AI – ví dụ yêu cầu “Hãy đóng vai một giáo sư giải thích… ” hoặc “Đóng vai một nhà phê bình ẩm thực…”. Kỹ thuật role prompting này thực chất là thay đổi framing: khi được gán một vai trò cụ thể, mô hình sẽ điều chỉnh văn phong và mức độ chi tiết phù hợp với vai đó​12. Một thí nghiệm cho thấy chỉ cần thêm câu “Bạn là một nhà phê bình ẩm thực, hãy viết bài đánh giá…”, bài viết AI tạo ra đã giàu chi tiết và chuyên nghiệp hơn hẳn so với prompt chung chung không nêu vai trò​13. Tương tự, thêm hướng dẫn như “Hãy suy nghĩ từng bước một” trước khi trả lời sẽ khiến mô hình trình bày có trình tự logic hơn. Tóm lại, prompt engineering cũng là một nghệ thuật giao tiếp, đòi hỏi người dùng biết cách diễn đạt ý muốn của mình một cách rành mạch, cung cấp đúng thông tin ngữ cảnh, và “dẫn dắt” mô hình bằng framing phù hợp. Cải thiện kỹ năng viết prompt thực chất cũng chính là cải thiện kỹ năng truyền đạt ý tưởng sao cho người (và máy) đều hiểu.

4. Các phương pháp phổ biến để prompt hiệu quả

Có một số phương pháp thiết kế prompt đã được cộng đồng khám phá nhằm tối ưu hiệu quả tương tác với LLM. Dưới đây là một vài kỹ thuật tiêu biểu cùng ví dụ minh họa:

  • Zero-shot prompting: Đây là cách đơn giản nhất – bạn đưa ra yêu cầu hoặc câu hỏi mà không kèm bất kỳ ví dụ nào. Mô hình sẽ phải dựa trên kiến thức đã huấn luyện để hiểu và trả lời. Zero-shot thích hợp với những nhiệm vụ phổ quát mà mô hình đã quen. Tuy nhiên, với các tác vụ phức tạp, zero-shot có thể cho kết quả chưa tốt vì mô hình chưa được “gợi ý” cụ thể về định dạng hay cách trả lời. (Thuật ngữ “zero-shot” ám chỉ mô hình chưa từng thấy ví dụ cụ thể nào trong prompt liên quan đến nhiệm vụ đó​14).
  • Few-shot prompting: Kỹ thuật này hiệu quả khi bạn muốn mô hình theo sát một định dạng hoặc ngữ cảnh nhất định. Bạn sẽ đưa vào prompt một vài ví dụ minh họa (vài dòng input và output mẫu) trước khi đặt câu hỏi chính. Nhờ thấy các ví dụ, mô hình sẽ hiểu rõ hơn yêu cầu và bắt chước phong cách/logic từ những ví dụ đó. Nghiên cứu đã chỉ ra rằng cung cấp vài ví dụ có thể cải thiện đáng kể hiệu suất trên nhiều nhiệm vụ so với zero-shot​. Ví dụ, nếu muốn AI phân tích cảm xúc câu thoại, bạn có thể đưa 2-3 câu thoại mẫu kèm nhãn cảm xúc, sau đó hỏi cảm xúc của câu mới – mô hình sẽ nhận ra cần trả lời theo dạng “Positive/Negative”. Few-shot prompting về bản chất giống như bạn cho AI xem qua vài bài mẫu trước khi nó làm bài của mình.15
  • Chain-of-thought prompting: Đây là kỹ thuật thêm vào prompt những gợi ý để mô hình suy luận từng bước (reasoning steps). Thay vì yêu cầu trả lời ngay, ta hướng dẫn mô hình “hãy suy nghĩ từng bước” hoặc thậm chí yêu cầu liệt kê các bước lập luận trước khi đưa ra kết quả cuối cùng. Cách prompt này khuyến khích AI tạo ra chuỗi suy nghĩ logic nội bộ, nhờ đó giải quyết các bài toán phức tạp tốt hơn. Đối với những vấn đề cần lý luận nhiều bước (toán học, logic), chain-of-thought đã giúp tăng độ chính xác vì mô hình tự tách bài toán lớn thành các bước nhỏ dễ quản lý​.16 Chẳng hạn, với một bài toán, prompt có thể là: “Đây là bài toán… Hãy giải thích từng bước lập luận của bạn rồi mới đưa ra đáp án cuối.” Việc này giống như ta yêu cầu học sinh cho ta xem các bước để ra kết quả vậy. Một ví dụ cụ thể: chỉ cần thêm câu “Hãy suy nghĩ từng bước một” vào cuối prompt, mô hình đã cho câu trả lời chi tiết và đúng đắn hơn so với khi không có hướng dẫn này​.17
  • Role prompting (định danh vai trò): Như đã nhắc ở phần trên, kỹ thuật này yêu cầu mô hình nhập vai một nhân vật hoặc chuyên gia nào đó. Mục đích là để điều chỉnh văn phong và góc nhìn của câu trả lời. Ví dụ, bắt đầu prompt với “Bạn là một bác sĩ, hãy tư vấn về triệu chứng XYZ…” sẽ khiến câu trả lời mang tính chuyên môn và thận trọng hơn, khác với “Giải thích triệu chứng XYZ…” thông thường. Role prompting giúp định hình “giọng” của AI theo hướng ta muốn: một trợ lý vui tính, một giáo viên kiên nhẫn, hay một chuyên gia phân tích nghiêm túc… Kết quả là nội dung đầu ra nhất quán với vai được giao​, phù hợp hơn với đối tượng người đọc mục tiêu. Bạn cũng có thể kết hợp role prompting với các kỹ thuật trên (zero-shot/few-shot + chain-of-thought) để vừa có văn phong đúng vai, vừa có nội dung chất lượng.18
  • Yêu cầu định dạng cụ thể: Một mẹo prompt khác là nói rõ bạn muốn câu trả lời ở định dạng nào (ví dụ: liệt kê gạch đầu dòng, JSON, bảng, v.v.). Việc này tương tự như khi bạn nhờ đồng nghiệp soạn thông tin “trong bảng Excel” hay “viết bullet points” – AI sẽ tuân thủ và trả lời đúng định dạng, giúp bạn dễ sử dụng kết quả hơn. Prompt có thể bao gồm câu như “Trả lời dưới dạng JSON với các key: …” hoặc “Liệt kê các bước dưới dạng danh sách đánh số.” Điều này không chỉ tạo sự nhất quán mà còn giảm công sức hậu xử lý kết quả của bạn. (Tuy nhiên, bạn cũng cần lưu ý rằng nếu bạn sử dụng model của Open AI hay bất kỳ đơn vị mua ngoài nào và muốn đưa lên giao diện của ứng dụng hay website của công ty bạn, thì mặt hiển thị dạng bảng hay hình ảnh sẽ phụ thuộc vào Front-end của bạn tự code, model AI chỉ trả kết quả cho Back-end thôi).

Ngoài ra, còn nhiều kỹ thuật nâng cao khác đang được nghiên cứu (như self-consistency – cho mô hình thử nhiều lời giải rồi chọn kết quả nhất quán nhất​19, hay dùng công cụ hỗ trợ trong prompt). Tuy nhiên, bốn phương pháp trên là nền tảng phổ biến mà bất kỳ ai dùng LLM cũng có thể áp dụng.

Ví dụ thực tế: Để thấy rõ khác biệt giữa một prompt hiệu quả và chưa hiệu quả, hãy xét cùng một mục tiêu nhưng hai cách đặt prompt:

  • Prompt 1 (chưa tốt): “Tôi muốn nấu gì đó.” – Câu yêu cầu này rất mơ hồ. AI nhận được chỉ biết bạn “muốn nấu gì đó” nhưng không rõ nấu món gì, nguyên liệu có gì, sở thích ra sao… Kết quả, mô hình có thể sẽ đưa ra một phản hồi chung chung, ví dụ liệt kê vài món ăn đại khái hoặc hỏi ngược lại bạn thích ăn gì, không thực sự hữu ích.
  • Prompt 2 (cải tiến hiệu quả): “Hãy đóng vai một đầu bếp tại gia nhiều kinh nghiệm. Đối với một người thích món chay Ý và chỉ có 30 phút để nấu bữa tối, anh/chị có thể gợi ý một công thức phù hợp, bao gồm danh sách nguyên liệu và hướng dẫn từng bước được không?” – Prompt này cụ thể hơn rất nhiều: bạn đặt vai trò chuyên gia ẩm thực, cung cấp bối cảnh chi tiết (món chay Ý, 30 phút, bữa tối), và nêu rõ yêu cầu đầu ra (công thức với nguyên liệu + hướng dẫn). AI lúc này hiểu rõ bạn cần một món chay Ý nấu trong 30 phút và nó sẽ sử dụng vai “đầu bếp” để trả lời một cách giàu thông tin. Thực tế cho thấy với prompt chi tiết như vậy, mô hình sẽ đưa ra một công thức cụ thể (ví dụ: mì Ý sốt pesto chay chẳng hạn) kèm danh sách nguyên liệu và các bước nấu hợp lý, đúng với nhu cầu của bạn​.20

Như vậy, chỉ bằng cách điều chỉnh cách diễn đạt và bổ sung thông tin cho prompt, chất lượng và mức độ hữu ích của câu trả lời tăng lên rõ rệt. Prompt 2 giống như bạn đang trao đổi với AI như một đồng nghiệp chuyên nghiệp: giao nhiệm vụ rõ ràng, có ngữ cảnh, có mong đợi cụ thể – và kết quả nhận được sẽ sát ý hơn rất nhiều so với prompt mơ hồ ban đầu.

5. Tài nguyên để học prompt engineering

Vì tầm quan trọng của prompt engineering, hiện nay có rất nhiều tài nguyên hữu ích (bài viết, khóa học, tài liệu hướng dẫn) để bạn tham khảo và rèn luyện kỹ năng này:

  • Hướng dẫn chính thức từ OpenAI: OpenAI đã phát hành một Prompt Engineering Guide trên trang web của mình, chia sẻ nhiều chiến lược và ví dụ cụ thể để có được kết quả tốt hơn từ các mô hình GPT​21. Đây là nguồn tài liệu nền tảng, giúp bạn nắm các nguyên tắc cốt lõi (như viết hướng dẫn rõ ràng, cung cấp ngữ cảnh, yêu cầu định dạng…) trực tiếp từ đơn vị tạo ra GPT.
  • Khóa học “ChatGPT Prompt Engineering for Developers” (DeepLearning.AI): Được dạy bởi Isa Fulford (OpenAI) và Andrew Ng, khóa học ngắn miễn phí này cung cấp cái nhìn tổng quan về cách LLM vận hành, kèm thực hành các phương pháp prompt hiệu quả và ứng dụng vào các nhiệm vụ như tóm tắt, suy luận, chuyển đổi định dạng văn bản​. Khóa học rất hữu ích cho cả lập trình viên và người không chuyên, vì trình bày có hệ thống các kỹ thuật prompt từ cơ bản đến nâng cao một cách dễ hiểu.
  • Tài liệu và blog từ Anthropic: Anthropic (đơn vị phát triển Claude) cũng chia sẻ nhiều hướng dẫn về prompt. Ví dụ, bài viết “Prompt engineering for business performance” trên blog Anthropic nêu rõ lợi ích của prompt tốt (giảm ảo giác, tăng tính nhất quán, hữu ích và tiết kiệm chi phí) khi triển khai AI trong doanh nghiệp​, đồng thời gợi ý các mẹo như dùng bước “nghĩ từng bước” và few-shot cho Claude​. Trang tài liệu của Anthropic cũng có mục Prompt Engineering Overview liệt kê các kỹ thuật và ví dụ tối ưu prompt cho Claude. Đây là nguồn tham khảo quý giá nếu bạn làm việc với các mô hình như Claude.
  • LearnPrompting.org: Đây là một dự án mã nguồn mở xây dựng lộ trình học prompt engineering cho người mới bắt đầu. Trang web này trình bày từ khái niệm cơ bản đến kỹ thuật nâng cao, có ví dụ tương tác, và được cập nhật thường xuyên bởi cộng đồng. Bạn có thể học cách viết prompt, xem các tình huống prompt hay hỏng, cũng như thử sức với những bài luyện tập nhỏ. LearnPrompting là nơi tuyệt vời để thực hành vì bạn vừa đọc lý thuyết vừa có thể áp dụng ngay trong các hộp thử nghiệm.
  • Prompt Engineering Guide (DAIR.AI): Bộ tài liệu tổng hợp trực tuyến bởi nhóm DAIR.AI (trên website promptingguide.ai) chứa gần như đầy đủ những gì bạn cần về prompt engineering – từ các bài nghiên cứu mới nhất, kỹ thuật nâng cao, mẹo sử dụng cho từng mô hình cụ thể, đến danh sách công cụ hỗ trợ​. Đây giống như một “bách khoa toàn thư” về prompt, thích hợp cho những ai muốn đào sâu và cập nhật kiến thức mới trong lĩnh vực này từ giới nghiên cứu lẫn thực tiễn.
  • Các bài viết, cộng đồng chia sẻ khác: Ngoài ra, bạn có thể tìm đọc các bài hướng dẫn trên Medium, theo dõi các chuyên gia trên Twitter/LinkedIn (nhiều prompt engineer giàu kinh nghiệm thường chia sẻ mẹo hay), hoặc tham gia cộng đồng như Discord, Reddit về ChatGPT để học hỏi kinh nghiệm thực tế. Ví dụ, bài viết trên InfoQ “Maximizing the Utility of LLMs through Prompting” cung cấp cái nhìn của giới công nghệ về những kỹ thuật như few-shot, chain-of-thought, self-consistency kèm ví dụ dễ hiểu​. Cộng đồng người dùng cũng thường xuyên đóng góp “prompt cookbook” – những mẫu prompt hữu ích cho nhiều tác vụ khác nhau mà bạn có thể tham khảo và thử nghiệm.

Nhìn chung, học prompt engineering vừa dễ lại vừa khó: không có quy tắc tuyệt đối cố định, mà đòi hỏi bạn hiểu mô hình và sáng tạo trong cách diễn đạt. Các tài nguyên trên sẽ giúp bạn nắm vững nguyên lý và gợi ý phương pháp, nhưng phần quan trọng nhất vẫn là thực hành thường xuyên. Hãy thử nghiệm những ý tưởng prompt mới, quan sát cách AI phản hồi, tinh chỉnh và học từ chính phản hồi đó – dần dần bạn sẽ “nhạy bén” hơn trong việc điều khiển AI bằng ngôn từ của mình. Prompt engineering thực sự là một kỹ năng kết hợp giữa kỹ thuật và nghệ thuật, và với sự kiên trì khám phá, bất kỳ ai cũng có thể làm chủ nó để biến AI thành trợ thủ đắc lực cho công việc và sáng tạo của mình. Chúc bạn thành công trên hành trình khám phá prompt engineering!


Nguồn tham khảo

  1. https://www.techtarget.com/searchenterpriseai/definition/AI-prompt ↩︎
  2. https://www.techtarget.com/searchenterpriseai/definition/AI-prompt ↩︎
  3. https://www.infoq.com/articles/large-language-models-llms-prompting/#:~:text=Easy%20enough%2C%20right%3F%20Here%27s%20where,substantially%20affect%20the%20output%20received ↩︎
  4. https://www.restack.io/p/prompt-engineering-answer-openai-models-cat-ai ↩︎
  5. https://www.restack.io/p/prompt-engineering-answer-openai-models-cat-ai ↩︎
  6. https://nexla.com/ai-infrastructure/prompt-engineering-vs-fine-tuning/#:~:text=%2A%20Fine,experimentation%20to%20achieve%20desired%20results ↩︎
  7. https://www.linkedin.com/posts/bindspacetechnologies_ai-machinelearning-datascience-activity-7223523437166649344-Wh0i/ ↩︎
  8. https://www.microsoft.com/en-us/research/blog/the-power-of-prompting/#:~:text=Today%2C%20we%20published%20an%20exploration,expertise%20from%20generalist%20foundation%20models ↩︎
  9. https://nexla.com/ai-infrastructure/prompt-engineering-vs-fine-tuning/#:~:text=In%20practical%20applications%2C%20the%20decision,and%20reliability%20in%20enterprise%20applications ↩︎
  10. https://www.anthropic.com/news/prompt-engineering-for-business-performance ↩︎
  11. https://www.restack.io/p/prompt-engineering-answer-openai-models-cat-ai ↩︎
  12. https://learnprompting.org/docs/basics/roles?srsltid=AfmBOordNfpLWo0gDOotOwyQW-zNSAOFZXkgEeLD1pKUAabiOaI1o5Cu ↩︎
  13. https://learnprompting.org/docs/basics/roles?srsltid=AfmBOordNfpLWo0gDOotOwyQW-zNSAOFZXkgEeLD1pKUAabiOaI1o5Cu ↩︎
  14. https://www.infoq.com/articles/large-language-models-llms-prompting/#:~:text=%2A%20Zero,prompting%20is%20an%20advanced%20prompting ↩︎
  15. https://www.infoq.com/articles/large-language-models-llms-prompting/#:~:text=%2A%20Zero,prompting%20is%20an%20advanced%20prompting ↩︎
  16. https://www.infoq.com/articles/large-language-models-llms-prompting/#:~:text=%2A%20Chain,diverse%20reasoning%20paths%20and%20then ↩︎
  17. https://www.restack.io/p/prompt-engineering-answer-openai-models-cat-ai ↩︎
  18. https://learnprompting.org/docs/basics/roles?srsltid=AfmBOordNfpLWo0gDOotOwyQW-zNSAOFZXkgEeLD1pKUAabiOaI1o5Cu ↩︎
  19. https://www.infoq.com/articles/large-language-models-llms-prompting/#:~:text=solved%20with%20zero,answer%20among%20the%20generated%20responses ↩︎
  20. https://davidmoore.io/how-to-talk-to-ai-part-2-good-prompt-bad-prompt/#:~:text= ↩︎
  21. https://platform.openai.com/docs/guides/prompt-engineering#:~:text=This%20guide%20shares%20strategies%20and,4o ↩︎

Leave a Reply