ChatGPT có phải là tương lai của tư vấn y tế bằng AI?

GD&TĐ - OpenAI gần đây đã giới thiệu ChatGPT Health, một tính năng mới trong ChatGPT được thiết kế để hỗ trợ các câu hỏi về sức khỏe và thể chất.

ChatGPT có phải là tương lai của tư vấn y tế bằng AI?

Việc ra mắt tính năng này nhằm đáp ứng việc chatbot AI được cho là nhận được hàng triệu câu hỏi liên quan đến sức khỏe mỗi ngày, cho thấy sự quan tâm ngày càng tăng của công chúng đối với thông tin y tế được hỗ trợ bởi AI.

Theo OpenAI, ChatGPT Health hướng đến việc cung cấp cho người dùng trải nghiệm tập trung hơn để giải quyết các vấn đề sức khỏe, chủ đề về thể chất và các câu hỏi y tế.

Rõ ràng, nhu cầu về thông tin sức khỏe dễ tiếp cận và mang tính đối thoại đang ngày càng tăng. Tuy nhiên, mặc dù các công cụ này có thể tăng khả năng tiếp cận thông tin, việc đảm bảo tính chính xác, công bằng và sử dụng có trách nhiệm vẫn là một thách thức quan trọng.

Chia sẻ với Medical News Today, Tiến sĩ David Liebovitz, chuyên gia về trí tuệ nhân tạo trong y học lâm sàng tại Đại học Northwestern, cho biết ông suy nghĩ về việc ChatGPT Health có thể ảnh hưởng như thế nào đến mối quan hệ giữa bệnh nhân và bác sĩ, và làm thế nào các chuyên gia chăm sóc sức khỏe (HCP) có thể hướng dẫn việc sử dụng các công cụ sức khỏe AI một cách an toàn và phù hợp.

Liệu công cụ này có mang lại lợi ích cho các chuyên gia chăm sóc sức khỏe và giúp cải thiện việc chăm sóc và tương tác với bệnh nhân?

Liebovitz: Có, nhưng cần lưu ý những điều quan trọng. ChatGPT Health có thể giúp bệnh nhân chuẩn bị tốt hơn với các xu hướng xét nghiệm được tóm tắt, các câu hỏi được sắp xếp và những thiếu sót trong chăm sóc được xác định.

Đó là một bước tiến so với việc bệnh nhân mang theo những kết quả tìm kiếm rời rạc trên Google hoặc không chuẩn bị gì cả. Đối với các chuyên gia chăm sóc sức khỏe, điều này có thể có nghĩa là thời gian khám bệnh hiệu quả hơn, dành để hiểu các giá trị và sở thích của bệnh nhân nhằm hỗ trợ việc ra quyết định chung và nhanh chóng khắc phục những thiếu sót.

Rủi ro là sự tự tin thái quá. Bệnh nhân có thể cho rằng thông tin do AI tổng hợp tương đương với phán đoán lâm sàng hoặc một đánh giá kỹ lưỡng. Các chuyên gia chăm sóc sức khỏe sẽ cần phát triển các kỹ năng mới: xác thực những gì bệnh nhân mang đến, sửa chữa những hiểu lầm do AI tạo ra và nhận ra khi nào công cụ này bỏ sót ngữ cảnh làm thay đổi hoàn toàn bức tranh lâm sàng.

Bạn sẽ đưa ra lời khuyên gì cho các chuyên gia chăm sóc sức khỏe khi thảo luận về ChatGPT với bệnh nhân?

Liebovitz: Hãy thừa nhận giá trị của công cụ đồng thời thiết lập những kỳ vọng phù hợp.

Tôi đề xuất cách diễn đạt như sau: “Công cụ này hữu ích để sắp xếp các câu hỏi và hiểu các khái niệm cơ bản, nhưng nó không biết những điều mà chỉ tôi mới có thể đánh giá, chẳng hạn như khám sức khỏe, giọng điệu của bạn trong cuộc trò chuyện, hoặc cách bạn đã phản ứng với các phương pháp điều trị trước đây.”

Điều quan trọng là không nên bác bỏ những bệnh nhân sử dụng công cụ này. Điều đó cho thấy chúng ta không lắng nghe (và các công cụ này đang ngày càng tốt hơn). Thay vào đó, hãy hỏi họ đã tìm thấy gì và những lo ngại nào mà nó gây ra. Hãy sử dụng nó như một điểm khởi đầu. Nếu họ đưa ra điều gì đó không chính xác, hãy coi đó là một cơ hội để học hỏi hơn là để sửa chữa.

Làm thế nào các chuyên gia chăm sóc sức khỏe có thể khuyên bệnh nhân sử dụng các công cụ sức khỏe AI một cách an toàn và phù hợp?

Liebovitz: Ba nguyên tắc:

Chuẩn bị, không phải chẩn đoán

Sử dụng nó để sắp xếp và đề xuất câu hỏi, hiểu thuật ngữ hoặc theo dõi các mô hình.

Việc đề xuất các chủ đề hoặc câu hỏi hữu ích để thảo luận trong buổi thăm khám là hoàn toàn được chấp nhận, nhưng vui lòng không sử dụng nó để kết luận điều gì đang sai, điều gì sẽ xảy ra trong tương lai, hoặc quyết định các phương pháp điều trị cụ thể.

Trong những trường hợp đó, hệ thống sẽ không có đầy đủ thông tin cần thiết, nhưng thường vẫn đưa ra hướng dẫn sai sót hoặc gây lo lắng không cần thiết.

Luôn luôn xác minh

Bất cứ điều gì làm thay đổi quyết định y tế nên được coi là gợi ý sơ bộ từ một nguồn AI chưa hoàn chỉnh và cần được xác nhận từ nhóm chăm sóc của bạn.

Tuy nhiên, những thiếu sót trong chăm sóc là phổ biến, và rất có thể có những hướng dẫn hữu ích dựa trên sự phức tạp của chẩn đoán và điều trị năm 2026, nhưng hãy hiểu rằng những hướng dẫn thực sự hữu ích có tác động đến quyết định không phải lúc nào cũng có hoặc có thể bị che khuất trong những gợi ý không phù hợp và gây nhiễu.

Hiểu rõ sự đánh đổi về quyền riêng tư

Dữ liệu sức khỏe được chia sẻ với ChatGPT không được bảo vệ bởi Đạo luật Bảo hiểm Y tế và Trách nhiệm Giải trình (HIPAA).

Không giống như các cuộc trò chuyện với bác sĩ hoặc nhà trị liệu, không có đặc quyền pháp lý nào. Đối với các vấn đề nhạy cảm như sức khỏe sinh sản, sức khỏe tâm thần, lạm dụng chất gây nghiện hoặc các mối quan tâm cá nhân khác, vui lòng hiểu rõ việc mất quyền riêng tư trước khi sử dụng công cụ này.

Các chuyên gia chăm sóc sức khỏe (HCP) có thể giúp giảm thiểu sự hiểu lầm khi sử dụng lời khuyên sức khỏe do AI tạo ra như thế nào?

Liebovitz: Sự hiểu lầm lớn nhất là thông tin do AI tạo ra tương đương với ý kiến ​​thứ hai từ một bác sĩ lâm sàng. Điều đó không đúng.

Các mô hình ngôn ngữ lớn (LLM), chẳng hạn như ChatGPT, dự đoán văn bản mà có vẻ hợp lý; chúng không xác minh tính đúng sai hoặc cân nhắc bối cảnh lâm sàng như cách một chuyên gia được đào tạo bài bản làm. Các chuyên gia có thể giúp đỡ bằng cách nói rõ ràng: “ChatGPT có thể tóm tắt thông tin và xác định các mẫu, nhưng nó có thể đưa ra kết luận sai lệch, bỏ sót những chi tiết nhỏ và thiếu thông tin về kết quả khám bệnh, tiền sử bệnh của bạn với tôi và những điều bạn chưa nói với nó.”

Các công cụ AI cũng không cân nhắc bằng chứng trong khi cung cấp hướng dẫn tùy chỉnh theo sở thích cụ thể của bệnh nhân như cách một bác sĩ lâm sàng lành nghề làm. Sự tự tin từ một công cụ AI không có nghĩa là đúng. Các phản hồi xuất hiện với cùng một mức độ đáng tin cậy, cho dù nó chính xác hay sai một cách nguy hiểm.

Nhìn về 5 năm tới, bạn nghĩ AI sẽ thay đổi mối quan hệ giữa bệnh nhân và bác sĩ như thế nào?

Liebovitz: Tôi dự đoán AI sẽ trở thành một lớp không thể thiếu trong hầu hết các tương tác chăm sóc sức khỏe (và cả những tương tác hậu trường), chẳng hạn như xử lý tài liệu, hiển thị lịch sử liên quan hoặc cảnh báo các vấn đề tiềm ẩn.

Đối với bệnh nhân, các công cụ như ChatGPT Health sẽ ngày càng đóng vai trò là trợ lý/người bạn đồng hành sức khỏe thường trực, giúp họ theo dõi, diễn giải và chuẩn bị (bao gồm cả việc xác định những thiếu sót cần thảo luận và đưa ra những gợi ý hành vi hữu ích theo sở thích của bệnh nhân).

Cốt lõi của mối quan hệ với bác sĩ, tức là sự tin tưởng, khả năng phán đoán, và việc cùng nhau đưa ra quyết định, sẽ không được tự động hóa.

Các bác sĩ được hỗ trợ bởi AI, những người học cách làm việc với bệnh nhân được hỗ trợ bởi AI, thay vì chống lại họ, sẽ có những cuộc trò chuyện sâu sắc hơn trong thời gian ngắn hơn. Những người tránh sử dụng AI, cả cá nhân và bởi bệnh nhân của họ, sẽ thấy bệnh nhân tìm đến nơi khác, hoặc đơn giản là không nói cho họ biết những gì AI đã nói.

Tại sao việc OpenAI ra mắt ChatGPT Health lại quan trọng vào thời điểm này, khi mà bệnh nhân hiện nay đã tìm kiếm thông tin sức khỏe trực tuyến?

Liebovitz: Bởi vì nó chính thức hóa những gì đã diễn ra một cách không chính thức.

Rõ ràng, mỗi ngày đã có 40 triệu người đặt câu hỏi cho ChatGPT, bao gồm tải lên kết quả xét nghiệm, mô tả triệu chứng và tìm kiếm lời giải thích. OpenAI hiện đang xây dựng cơ sở hạ tầng chuyên dụng xung quanh hành vi này: không gian mã hóa, hồ sơ y tế được kết nối và các biện pháp bảo vệ rõ ràng.

Đạo luật Chữa bệnh Thế kỷ 21 (21st Century Cures Act) yêu cầu các hệ thống y tế cung cấp cho bệnh nhân quyền truy cập vào hồ sơ của họ thông qua các API tiêu chuẩn. ChatGPT Health là một công cụ tiêu dùng quan trọng ban đầu nhằm tổng hợp quyền truy cập đó trên quy mô lớn. Dù các bác sĩ có thích hay không, điều này sẽ thay đổi sự bất đối xứng thông tin đã định hình mối quan hệ giữa bệnh nhân và nhà cung cấp dịch vụ y tế trong nhiều thập kỷ và do đó thúc đẩy quá trình dân chủ hóa chăm sóc sức khỏe.

Ông đã nói rằng đây là một "bước tiến đáng kể so với tìm kiếm trên Google". Cụ thể điều gì làm cho nó tốt hơn, và nó vẫn còn thiếu sót ở điểm nào?

Điều gì làm cho nó tốt hơn

Liebovitz: ChatGPT tổng hợp thông tin từ nhiều nguồn và cá nhân hóa theo ngữ cảnh của người dùng-bệnh nhân.

Thay vì 10 liên kết màu xanh lam với thông tin mâu thuẫn, bệnh nhân nhận được lời giải thích mạch lạc dựa trên dữ liệu của chính họ, bao gồm xu hướng xét nghiệm theo thời gian, tương tác thuốc có thể xảy ra, chuẩn bị cuộc hẹn cụ thể cho tình huống của họ.

Những điểm yếu

Liebovitz: Nó vẫn có thể gây ảo giác. Các trích dẫn không đáng tin cậy. Nó thiếu khả năng tiếp cận với khám thực thể, tổng quan lâm sàng, bối cảnh xã hội mà một bác sĩ giỏi thu thập được trong 5 phút trò chuyện.

Kết quả đầu ra của LLM tối ưu hóa tính hợp lý, chứ không phải độ chính xác. Điều này khiến các câu trả lời sai thường nghe có vẻ tự tin hơn câu trả lời đúng. Các chi tiết quan trọng mà một bác sĩ lâu năm biết về bệnh nhân có thể bị thiếu. Hệ thống dữ liệu của chúng tôi chưa được tích hợp đầy đủ, và cũng có khả năng ChatGPT sẽ có ít quyền truy cập vào hồ sơ bệnh án đầy đủ hơn so với các bác sĩ.

Khoảng trống lớn nhất

Liebovitz: Không có trách nhiệm giải trình. Khi tôi sai, có các cơ chế, bao gồm đánh giá đồng nghiệp, kiện tụng y khoa, hội đồng cấp phép, danh tiếng nghề nghiệp của tôi. Khi ChatGPT sai, bạn chỉ có thể đánh giá tiêu cực.

Theo ông, ông thấy bệnh nhân sẽ sử dụng ChatGPT Health như thế nào một cách thực tế?

Liebovitz: Tôi thấy năm kịch bản có giá trị cao:

  • Chuẩn bị trước khi khám: “Hãy giúp tôi hiểu kết quả xét nghiệm gần đây và sắp xếp các câu hỏi cho cuộc hẹn. Hãy chú ý đến bất kỳ thiếu sót hoặc mục nào chưa được thực hiện.”
  • Làm rõ sau khi khám: “Bác sĩ của tôi đã đề cập đến X. Vui lòng giải thích lại điều đó có nghĩa là gì và tôi nên chú ý điều gì.”
  • Kiểm tra định kỳ: “Vui lòng nhắc tôi hàng tuần nếu có bất kỳ điều gì trong danh sách việc cần làm về sức khỏe hoặc bất kỳ hành vi lành mạnh cụ thể nào tôi nên lưu ý dựa trên tiền sử bệnh của mình.”
  • Điều hướng hệ thống: “So sánh các lựa chọn bảo hiểm của tôi cho thủ tục này” hoặc “Hãy giúp tôi kháng cáo việc từ chối bảo hiểm này.”
  • Câu hỏi về kiến ​​thức cơ bản về sức khỏe: Nếu được trang bị kiến ​​thức đầy đủ về các chủ đề y tế cơ bản, tiềm năng cho việc hỏi/đáp về các chủ đề y tế tổng quát sẽ được nâng cao, mặc dù các triệu chứng hiện tại nên được chuyển đến cơ sở y tế để được chăm sóc y tế chuyên nghiệp do những hạn chế đã nêu ở trên.

Ông đã nêu lên những lo ngại về các biện pháp bảo vệ của HIPAA. Hầu hết bệnh nhân hiểu sai điều gì về quyền riêng tư khi họ sử dụng các công cụ sức khỏe AI?

Liebovitz: Quan niệm sai lầm chính là bất kỳ cuộc trò chuyện nào về sức khỏe đều được bảo vệ như một cuộc trò chuyện với bác sĩ của họ. Điều đó không đúng.

HIPAA chỉ bao gồm “các thực thể được bảo hiểm”, có nghĩa là các kế hoạch bảo hiểm y tế, các trung tâm thanh toán dịch vụ chăm sóc sức khỏe và các nhà cung cấp dịch vụ chăm sóc sức khỏe truyền tải thông tin sức khỏe điện tử. Các công cụ AI dành cho người tiêu dùng không phải là các thực thể được bảo hiểm.

Do đó, khi bạn chia sẻ thông tin sức khỏe với ChatGPT, dữ liệu đó về mặt lý thuyết có thể bị triệu tập, truy cập thông qua các quy trình pháp lý hoặc, bất chấp các chính sách đã nêu của OpenAI, được sử dụng theo những cách mà bạn không lường trước được.

Không có gì giống như đặc quyền bác sĩ-bệnh nhân. Đối với các vấn đề sức khỏe nhạy cảm, đặc biệt là các vấn đề sức khỏe sinh sản hoặc sức khỏe tâm thần trong môi trường pháp lý hiện tại, sự khác biệt đó rất quan trọng.

Có những lĩnh vực sức khỏe cụ thể nào, chẳng hạn như sức khỏe tâm thần hoặc chăm sóc sinh sản, mà ông muốn khuyến khích sự bảo mật bổ sung? Thận trọng?

Liebovitz: Chắc chắn rồi. Sức khỏe tâm thần tiềm ẩn những rủi ro riêng: Chatbot AI đã bị cáo buộc liên quan đến nhiều trường hợp tự tử, trong đó chúng xác nhận những ý nghĩ nguy hiểm thay vì xử lý vấn đề một cách thích hợp.

Nghiên cứu của Đại học Brown được công bố năm ngoái đã ghi nhận những vi phạm đạo đức có hệ thống, bao gồm củng cố niềm tin tiêu cực, tạo ra sự đồng cảm giả tạo, xử lý sai các tình huống khủng hoảng. Các chatbot AI không được thiết kế để nhận biết sự suy giảm chức năng tâm thần.

Chăm sóc sức khỏe sinh sản tiềm ẩn rủi ro pháp lý ngoài rủi ro lâm sàng. Ở các tiểu bang có quy định hạn chế phá thai, bất kỳ hồ sơ kỹ thuật số nào về các câu hỏi sức khỏe sinh sản đều trở thành bằng chứng tiềm tàng.

Không giống như các cuộc trò chuyện với bác sĩ của bạn, các cuộc trò chuyện trên ChatGPT không được bảo vệ bởi đặc quyền pháp lý. Tôi cũng muốn bổ sung thêm: sử dụng chất gây nghiện, tình trạng nhiễm HIV, thông tin di truyền, bất cứ điều gì liên quan đến các thủ tục pháp lý. Điểm chung là liên kết các tình huống mà việc tiết lộ, ngay cả vô tình, cũng gây ra hậu quả vượt ra ngoài phạm vi chăm sóc lâm sàng.

Tin tiêu điểm

Đừng bỏ lỡ