Bốn mươi năm trước, chúng ta đã nghĩ về trí tuệ nhân tạo (AI) đã trở nên tồi tệ. Và bây giờ, chỉ còn vài năm nữa là đến năm 2029, cộng đồng y tế đang vật lộn với tiềm năng của AI trong y học - vừa có hại vừa có thể hữu ích, với sự ra mắt của ChatGPT của OpenAI, Bard của Google và Bing cải tiến của Microsoft. Được giới thiệu vào tháng 11, ChatGPT đã khơi mào các cuộc thảo luận sâu sắc về vai trò của nó trong bài viết khoa học và các chính sách cập nhật trong không gian xuất bản nhãn khoa.
ChatGPT (Chat Generative Pre - training Transformer) và các chatbot AI khác đang được sử dụng trong các học viện theo những cách ngày càng sáng tạo để viết thư xin việc, thư giới thiệu, giáo trình và các ý kiến như thế này (nhưng tôi đang viết bài này theo cách cũ - cách thời trang). Ví dụ, những công cụ này có thể mô tả chi tiết ảnh chụp đáy mắt trong kho dữ liệu của hồ sơ bệnh án. Tôi sẽ không ngạc nhiên nếu thế hệ chương trình tiếp theo bao gồm các ứng dụng nhãn khoa tận dụng chẩn đoán dựa trên AI - tương tự như các hệ thống hiện tại chẩn đoán bệnh nhân mắc bệnh võng mạc tiểu đường một cách tự động, để xử lý hình ảnh ngoài văn bản. GPT-4 thậm chí còn cung cấp các đặc quyền giúp cân bằng giữa công việc và cuộc sống. Nó có thể đề xuất các công thức nấu ăn cho bữa tối dựa trên ảnh chụp đồ đạc trong tủ lạnh của bạn - một ứng dụng thiết thực cho các bác sĩ nhãn khoa bận rộn?
Sự phát triển bùng nổ của công nghệ chatbot AI đã tạo ra các ứng dụng mới (và các tình huống khó xử về đạo đức) mà nhiều người chưa bao giờ nghĩ đến chỉ vài tháng trước. Hơn nữa, nó nhấn mạnh tầm quan trọng của việc đảm bảo AI được sử dụng một cách có trách nhiệm và đáng tin cậy.
Chỉ vài tháng sau khi ra mắt, ChatGPT đã được liệt kê là đồng tác giả trên một số bài báo khoa học, các biên tập viên tạp chí và nhà xuất bản khoa học hàng đầu - bao gồm cả Nature, Science và Elsevier để phát triển các chính sách xung quanh việc sử dụng AI tổng quát trong bài viết khoa học. AI sáng tạo có thể được sử dụng trong quá trình viết để “cải thiện khả năng đọc và ngôn ngữ của tác phẩm”, như được mô tả trong “Đạo đức xuất bản” trên trang web Elsevier. Lưu ý: các tác giả bắt buộc phải tiết lộ việc sử dụng AI và các công nghệ hỗ trợ AI trong bản thảo.
Tổng biên tập nhãn khoa Russ Van Gelder đã chỉ ra với tôi rằng chatbot là bước tiếp theo trong quá trình phát triển của các công cụ viết. Anh ấy nói thêm rằng “ChatGPT gây rối vì nó vượt qua ngưỡng thử nghiệm Turing. Nghĩa là nó thể hiện trí thông minh gần như không thể phân biệt được với trí thông minh của con người.”
Hầu hết các tạp chí, bao gồm cả họ tạp chí hàn lâm, không cho phép ChatGPT hoặc các công nghệ hỗ trợ AI khác được liệt kê là tác giả. Russ giải thích rằng tất cả các tác giả chịu trách nhiệm về dữ liệu trong bài báo và một chatbot không thể chứng thực tính xác thực của dữ liệu và phân tích. Hơn nữa, vì các tác giả là con người thường không thể xác định các nguồn mà ChatGPT sử dụng để tạo nội dung, nên có khả năng xảy ra hành vi đạo văn. Ai chịu trách nhiệm cho việc đó?
Russ cũng nhấn mạnh rằng không được sử dụng chatbot để giải thích dữ liệu hoặc đưa ra kết luận khoa học, điều này đặt ra câu hỏi về cách sử dụng công nghệ này trong các bài báo học thuật. ChatGPT có thể hỗ trợ tiến hành đánh giá tài liệu và có thể tạo bản tóm tắt các nghiên cứu có liên quan và nêu bật những phát hiện chính, nhưng có những hạn chế: Độ tin cậy của nó là đáng nghi ngờ, nó không cung cấp tài liệu tham khảo và đôi khi nó bịa đặt. ChatGPT cũng có thể được sử dụng để sửa lỗi ngữ pháp, dấu câu và chính tả. Nó có thể đề xuất các từ đồng nghĩa hoặc từ thay thế để cải thiện độ rõ ràng và chính xác của văn bản.
Tôi đã hỏi ChatGPT làm thế nào nó có thể được sử dụng để viết các bài báo khoa học. Phản hồi của nó rất thấu đáo nhưng không phù hợp với các chính sách hiện có của ngành nhãn khoa. Ví dụ: ChatGPT gợi ý rằng nó có thể được đào tạo dựa trên dữ liệu khoa học và được sử dụng để thực hiện phân tích dữ liệu, chẳng hạn như dự đoán kết quả hoặc xác định các mẫu. Đối với uy tín của mình, ChatGPT đã đưa ra một số lời khuyên tốt cho các tác giả về độ tin cậy của chính nó. Nó nói "Mặc dù ChatGPT có thể là một công cụ hữu ích nhưng nó không nên được sử dụng để thay thế cho phân tích và tư duy phản biện của con người." Và nói một cách nhẹ nhàng hơn, ChatGPT đã tạo ra một danh sách thú vị về các lần dùng câu cửa miệng “Tôi sẽ quay lại” xuất hiện trở lại trong từ vựng văn hóa của chúng ta kể từ khi Kẻ hủy diệt lần đầu tiên được chiếu tại rạp.
Khi cộng đồng nhãn khoa của chúng ta đưa ra những cách mới để sử dụng chatbot, chắc chắn sẽ có thêm cuộc thảo luận về việc sử dụng các công nghệ hỗ trợ AI. Không còn nghi ngờ gì nữa: “Chúng tôi sẽ trở lại.”
Bài viết của Ruth D.Wiliams. MD, Trưởng ban Biên tập Y tế, EyeNet