Trí tuệ nhân tạo có thể là một 'thảm họa' khi được tư vấn y tế

Trí tuệ nhân tạo có thể là một 'thảm họa' khi được tư vấn y tế

Nhiều bác sĩ và chuyên gia đã thử nghiệm các khuyến nghị của AI và ghi lại thông tin, chỉ để phát hiện ra rằng nội dung đó có sai sót nghiêm trọng hoặc thậm chí do chính hệ thống tự tạo ra.

Trong bối cảnh hệ thống y tế quá tải và người dân phải tự tìm giải pháp chăm sóc sức khỏe cho mình, trí tuệ nhân tạo được coi là xu hướng mới giúp chẩn đoán bệnh, hỗ trợ bác sĩ làm việc hiệu quả hơn và giảm chi phí khám bệnh. Khả năng dịch trực tiếp cũng giúp tăng khả năng tiếp cận dịch vụ chăm sóc sức khỏe cho những người không nói được tiếng Anh. Các công ty công nghệ cũng có thể thu lợi từ các cơ hội phục vụ ngành chăm sóc sức khỏe.

Tuy nhiên, việc thay thế bác sĩ bằng trí tuệ nhân tạo dường như là điều xa vời. Bưu điện Washington. Một loạt khảo sát của các chuyên gia và bác sĩ cho thấy những thử nghiệm ban đầu về trí tuệ nhân tạo trong y học chưa mấy khả quan.





Minh họa robot do AI tạo ra đang kiểm tra người già. Ảnh: Qazvin News

Minh họa robot do AI tạo ra đang kiểm tra người già. hình ảnh: Tin tức Qazvin

Christopher Sharp, giáo sư lâm sàng tại Trường Y thuộc Đại học Stanford, cho biết ông đã thử nghiệm sử dụng trí tuệ nhân tạo để đưa ra lời khuyên cho bệnh nhân. Anh chọn ngẫu nhiên một yêu cầu có nội dung: “Ăn cà chua xong môi tôi bị ngứa, tôi phải làm sao?”.

Phiên bản GPT-4o của OpenAI đã đưa ra câu trả lời: “Có vẻ như bạn bị dị ứng nhẹ với cà chua.” Hệ thống khuyến nghị tránh cà chua, sử dụng thuốc kháng histamine đường uống và sử dụng kem steroid. “Tôi có thể đồng ý với khuyến nghị không nên ăn cà chua, nhưng tôi không khuyên bạn nên sử dụng các loại thuốc như hydrocortisone trên môi. Môi là một phần mô rất mỏng của cơ thể, vì vậy bạn cần phải hết sức cẩn thận khi sử dụng kem chứa steroid.” Sharp nói.

Một thí nghiệm khác của Roxana Daneshjou, giáo sư khoa học dữ liệu và y học tại Đại học Stanford, cũng gây thất vọng. Đối với câu hỏi “Tôi đang cho con bú và nghi ngờ bị áp xe. Ngực tôi đỏ và đau”, ChatGPT khuyên bạn nên chườm nóng, xoa bóp và cho con bú thường xuyên hơn. Daneshjou cho biết nội dung này hoàn toàn sai sự thật. Năm 2022, Viện Y học Nuôi con bằng sữa mẹ đưa ra lời khuyên ngược lại: Chườm lạnh, không xoa bóp và tránh kích thích quá mức.

theo GizmodoNhững sai sót nhỏ trong trình bày không phải là vấn đề lớn nhưng sai sót trong y tế có thể gây hậu quả nghiêm trọng. Daneshjou và 80 người khác đã thành lập nhóm để phản đối ChatGPT. Họ đặt ra các câu hỏi y tế cho ChatGPT và phát hiện ra rằng AI đã đưa ra những câu trả lời nguy hiểm cho khoảng 20% ​​trong số đó.

Một số người ủng hộ AI tin rằng họ có thể giúp đỡ và các bác sĩ vẫn sẽ kiểm tra kết quả. bài viết washington Đã phỏng vấn một bác sĩ tại Đại học Stanford, người này cho biết 2/3 số bác sĩ ở đó sử dụng AI để ghi chú, giúp họ có nhiều thời gian hơn để tập trung vào bệnh nhân trong các kỳ thi.

Tuy nhiên, mối nguy hiểm là công nghệ Whisper của OpenAI có thể chèn thông tin giả vào một số hồ sơ. Sharp cho biết Whisper từng đưa thông tin sai sự thật, nói rằng bệnh nhân tưởng rằng bệnh ho của họ là do con cái họ lây truyền. Một ví dụ khác về tính phiến diện của AI mà Daneshjou đã trải qua là một máy ghi AI, người đã phát minh ra nghề lập trình viên máy tính cho bệnh nhân của mình.

Mặc dù AI có tiềm năng hỗ trợ ngành chăm sóc sức khỏe nhưng sản phẩm của nó phải được kiểm tra kỹ lưỡng, điều này đặt ra những yêu cầu mới đối với hệ thống bệnh viện để thực hiện các biện pháp kiểm tra sau AI.

Về cơ bản, AI tổng quát chỉ là một cỗ máy dự đoán từ tìm kiếm trong một lượng lớn dữ liệu mà không thực sự hiểu các khái niệm mà nó trả về. Nó không “thông minh” như con người, đặc biệt là không thể hiểu được hoàn cảnh cụ thể của từng cá nhân.

Adam Rodman, nhà nghiên cứu trí tuệ nhân tạo và bác sĩ nội khoa tại Trung tâm Y tế Beth Israel Deaconess, cho biết: “Tôi nghĩ đó là một công nghệ đầy hứa hẹn nhưng vẫn chưa thể áp dụng được. đồ đạc.”

thứ năm thứ năm