Thuật ngữ

Ảo giác (trong LLM)

Khám phá nguyên nhân gây ra ảo giác trong Mô hình ngôn ngữ lớn (LLM) và khám phá các chiến lược hiệu quả để giảm thiểu sự không chính xác trong nội dung do AI tạo ra.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Ảo giác đề cập đến hiện tượng mà Mô hình ngôn ngữ lớn (LLM) tạo ra văn bản vô nghĩa, không đúng sự thật hoặc không liên quan đến ngữ cảnh đầu vào được cung cấp, mặc dù có vẻ tự tin và mạch lạc. Các đầu ra này không dựa trên dữ liệu đào tạo của mô hình hoặc thực tế bên ngoài mà thay vào đó là các hiện vật của các quy trình nội bộ của mô hình đang cố gắng dự đoán từ hoặc mã thông báo có khả năng xảy ra tiếp theo. Việc hiểu ảo giác rất quan trọng để phát triển và triển khai các hệ thống Trí tuệ nhân tạo (AI) một cách có trách nhiệm, đặc biệt là các hệ thống được sử dụng để truy xuất thông tin, tạo nội dung hoặc ra quyết định trong các nền tảng như chatbot hoặc trợ lý ảo .

Tại sao ảo giác xảy ra

LLM, thường được xây dựng trên các kiến trúc như Transformer (được giới thiệu trong bài báo " Attention Is All You Need "), về cơ bản là các mô hình xác suất. Chúng học các mẫu, ngữ pháp và các mối liên hệ thực tế từ lượng lớn dữ liệu văn bản trong quá trình đào tạo bằng các khuôn khổ như PyTorch hoặc TensorFlow . Tuy nhiên, chúng thiếu sự hiểu biết thực sự, ý thức hoặc khả năng xác minh thông tin một cách bản chất. Ảo giác có thể phát sinh từ một số yếu tố:

  • Giới hạn dữ liệu đào tạo: Mô hình có thể đã được đào tạo trên dữ liệu nhiễu, sai lệch hoặc không chính xác về mặt thực tế hoặc có thể thiếu thông tin đầy đủ về một chủ đề cụ thể. Nó cố gắng "lấp đầy khoảng trống" dựa trên các mẫu đã học, dẫn đến bịa đặt.
  • Kiến trúc và đào tạo mô hình: Cách các mô hình như GPT-4 xử lý thông tin và tạo chuỗi từng từ một có thể dẫn chúng đi theo những con đường hợp lý về mặt thống kê nhưng không chính xác về mặt thực tế. Sự phức tạp của các mô hình học sâu khiến chúng dễ có hành vi không thể đoán trước.
  • Chiến lược giải mã: Các tham số được sử dụng trong quá trình tạo văn bản (suy luận), chẳng hạn như "nhiệt độ", ảnh hưởng đến tính ngẫu nhiên. Nhiệt độ cao hơn khuyến khích sự sáng tạo nhưng làm tăng nguy cơ ảo giác.
  • Thiếu cơ sở: Nếu không có cơ chế kết nối văn bản được tạo ra với kiến thức thực tế hoặc các tài liệu nguồn cụ thể, mô hình có thể trôi vào các tuyên bố không được hỗ trợ. Các kỹ thuật như cơ sở nhằm mục đích giải quyết vấn đề này.
  • Sự mơ hồ của lời nhắc: Lời nhắc mơ hồ hoặc được xây dựng kém có thể khiến mô hình đưa ra giả định hoặc tạo ra đầu ra ít bị hạn chế hơn, làm tăng khả năng không chính xác. Kỹ thuật lời nhắc hiệu quả là chìa khóa.

Ví dụ thực tế và tác động

Ảo giác có thể biểu hiện theo nhiều cách khác nhau, gây ra những rủi ro đáng kể như phát tán thông tin sai lệch, tạo ra nội dung có hại hoặc làm xói mòn lòng tin của người dùng vào hệ thống AI .

  1. Bịa đặt sự thật trong Chatbot: Người dùng có thể hỏi chatbot về một khám phá khoa học cụ thể và chatbot có thể bịa ra các chi tiết, gán khám phá đó cho nhầm người hoặc mô tả một sự kiện không tồn tại với độ tin cậy cao.
  2. Trích dẫn pháp lý bịa đặt: Trong một vụ việc được báo cáo rộng rãi, các luật sư đã sử dụng một công cụ AI để nghiên cứu pháp lý, tạo ra các trích dẫn vụ án hoàn toàn bịa đặt được trình bày trong các tài liệu của tòa án, dẫn đến các lệnh trừng phạt.

Tác động này vượt xa những lỗi đơn giản; nó thách thức độ tin cậy của các hệ thống AI, đặc biệt là khi chúng được tích hợp vào các công cụ tìm kiếm ( như Google 's AI Overviews ), trợ lý ảo và các công cụ tạo nội dung. Giải quyết vấn đề này là một thách thức cốt lõi trong đạo đức và an toàn AI , đòi hỏi các chiến lược xác thựcgiám sát mạnh mẽ.

Phân biệt ảo giác với các lỗi khác

Điều quan trọng là phải phân biệt ảo giác với các loại lỗi AI khác:

  • Sự thiên vị trong AI : Điều này đề cập đến các lỗi hệ thống hoặc đầu ra bị lệch phản ánh sự thiên vị có trong dữ liệu đào tạo (ví dụ: khuôn mẫu giới tính hoặc chủng tộc). Ảo giác thường là những sản phẩm bịa đặt ngẫu nhiên hơn là đầu ra nhất quán, thiên vị. Hiểu được sự thiên vị của tập dữ liệu là rất quan trọng ở đây.
  • Quá khớp : Điều này xảy ra khi một mô hình học dữ liệu đào tạo quá tốt, bao gồm cả nhiễu, và không thể khái quát hóa thành dữ liệu mới, chưa thấy ( dữ liệu xác thực ). Mặc dù quá khớp dẫn đến hiệu suất kém, nhưng nó khác với việc tạo ra thông tin hoàn toàn mới, sai.
  • Thông tin lỗi thời: Một LLM có thể cung cấp thông tin không chính xác chỉ vì dữ liệu đào tạo của nó không phải là thông tin mới nhất. Đây là lỗi thực tế dựa trên ngưỡng kiến thức, không phải là ảo giác khi thông tin được tạo ra.

Chiến lược giảm thiểu

Các nhà nghiên cứu và nhà phát triển đang tích cực làm việc để giảm ảo giác LLM:

  • Dữ liệu đào tạo được cải thiện: Biên soạn các tập dữ liệu chất lượng cao hơn, đa dạng hơn và được kiểm tra thực tế. Sử dụng các tập dữ liệu chuẩn chất lượng cao sẽ hữu ích.
  • Thế hệ tăng cường truy xuất (RAG) : Trang bị cho LLM khả năng tìm nạp và trích dẫn thông tin từ các cơ sở kiến thức bên ngoài đáng tin cậy ( như cơ sở dữ liệu vectơ ) trước khi tạo phản hồi.
  • Tinh chỉnh và RLHF: Tinh chỉnh các mô hình cơ sở trên các nhiệm vụ hoặc tập dữ liệu cụ thể và sử dụng các kỹ thuật như Học tăng cường từ phản hồi của con người (RLHF) để điều chỉnh hành vi của mô hình với kết quả mong muốn (ví dụ: tính trung thực).
  • Gợi ý tốt hơn: Các kỹ thuật như gợi ý Chuỗi suy nghĩ khuyến khích các mô hình "suy nghĩ từng bước", có khả năng giảm thiểu lỗi.
  • Xác minh đầu ra: Triển khai các cơ chế để kiểm tra chéo các tuyên bố được tạo ra với các sự kiện đã biết hoặc nhiều nguồn.
  • Điều chỉnh các tham số suy luận: Giảm các thiết lập như "nhiệt độ" có thể làm cho đầu ra tập trung hơn và ít ngẫu nhiên hơn, giúp giảm nguy cơ ảo giác.

Trong khi LLM tập trung vào ngôn ngữ, các mô hình chuyên về Thị giác máy tính (CV) , chẳng hạn như Ultralytics YOLO để phát hiện đối tượng , hoạt động khác nhau và phải đối mặt với những thách thức riêng biệt như đảm bảo độ chính xác của phát hiện. Tuy nhiên, xu hướng hướng tới các mô hình đa phương thức kết hợp ngôn ngữ và thị giác ( như CLIP ) có nghĩa là việc hiểu các vấn đề như ảo giác trở nên có liên quan trên nhiều lĩnh vực. Các nền tảng như Ultralytics HUB hỗ trợ đào tạo và triển khai nhiều mô hình AI khác nhau, tạo điều kiện phát triển trên nhiều phương thức khác nhau.

Đọc tất cả
OSZAR »