Khi OpenAI tự hào về sự chu đáo ngày càng tăng của mô hình o1 của mình, công ty khởi nghiệp nhỏ, tự cấp vốn Nomi AI đang xây dựng loại công nghệ tương tự. Không giống như ChatGPT tổng quát rộng rãi, vốn làm chậm việc suy nghĩ mọi thứ từ các bài toán hoặc nghiên cứu lịch sử, Nomi tập trung vào một trường hợp sử dụng cụ thể: bạn đồng hành của AI. Giờ đây, các chatbot vốn đã phức tạp của Nomi cần thêm thời gian để hình thành phản hồi tốt hơn cho tin nhắn của người dùng, ghi nhớ các tương tác trong quá khứ và đưa ra phản hồi nhiều sắc thái hơn.
“Đối với chúng tôi, nó giống như những nguyên tắc tương tự [as OpenAI]nhưng còn nhiều hơn thế nữa đối với những gì người dùng của chúng tôi thực sự quan tâm, đó là về mặt bộ nhớ và EQ,” Giám đốc điều hành Nomi AI Alex Cardinell nói với TechCrunch. “Của họ giống như chuỗi suy nghĩ, còn của chúng tôi giống chuỗi nội tâm hay chuỗi ký ức hơn nhiều.”
Các LLM này hoạt động bằng cách chia nhỏ các yêu cầu phức tạp hơn thành các câu hỏi nhỏ hơn; đối với O1 của OpenAI, điều này có thể có nghĩa là biến một bài toán phức tạp thành các bước riêng lẻ, cho phép mô hình hoạt động ngược lại để giải thích cách nó đi đến câu trả lời đúng. Điều này có nghĩa là AI ít có khả năng bị ảo giác và đưa ra phản hồi không chính xác.
Với Nomi, công ty đã xây dựng LLM nội bộ và đào tạo nó nhằm mục đích cung cấp sự đồng hành, quy trình này hơi khác một chút. Nếu ai đó nói với Nomi của họ rằng họ đã có một ngày làm việc khó khăn, Nomi có thể nhớ lại rằng người dùng đó không hợp tác tốt với một đồng đội nào đó và hỏi xem đó có phải là lý do khiến họ khó chịu hay không — sau đó, Nomi có thể nhắc nhở người dùng cách thực hiện. trước đây họ đã thành công trong việc giảm thiểu xung đột giữa các cá nhân và đưa ra những lời khuyên thiết thực hơn.
Cardinell nói: “Nomis nhớ mọi thứ, nhưng một phần lớn của AI là những ký ức mà họ thực sự nên sử dụng.
Điều hợp lý là nhiều công ty đang nghiên cứu công nghệ giúp LLM có nhiều thời gian hơn để xử lý yêu cầu của người dùng. Những người sáng lập AI, cho dù họ có đang điều hành các công ty trị giá 100 tỷ USD hay không, đều đang xem xét các nghiên cứu tương tự khi họ phát triển sản phẩm của mình.
Cardinell nói: “Việc có bước xem xét nội tâm rõ ràng đó thực sự hữu ích khi Nomi viết phản hồi của họ, để họ thực sự có bối cảnh đầy đủ về mọi thứ”. “Con người cũng có trí nhớ làm việc khi nói chuyện. Chúng tôi không xem xét tất cả những điều chúng tôi đã nhớ cùng một lúc – chúng tôi có một số cách để chọn và chọn.”
Loại công nghệ mà Cardinell đang xây dựng có thể khiến mọi người phải lo lắng. Có lẽ chúng ta đã xem quá nhiều phim khoa học viễn tưởng nên không thể cảm thấy hoàn toàn thoải mái khi bị máy tính tấn công; hoặc có thể, chúng ta đã thấy công nghệ đã thay đổi cách chúng ta tương tác với nhau như thế nào và chúng ta không muốn lún sâu hơn vào cái hố kỹ thuật đó. Nhưng Cardinell không nghĩ đến công chúng – anh ấy đang nghĩ đến những người dùng thực tế của Nomi AI, những người thường chuyển sang sử dụng các chatbot AI để được hỗ trợ mà họ không thể tìm được ở nơi nào khác.
Cardinell nói: “Có một số lượng khác không người dùng có thể đang tải xuống Nomi ở một trong những thời điểm thấp nhất trong cuộc đời họ, nơi mà điều cuối cùng tôi muốn làm là từ chối những người dùng đó”. “Tôi muốn làm cho những người dùng đó cảm thấy được lắng nghe trong bất kể khoảnh khắc đen tối nào của họ, bởi vì đó là cách bạn khiến ai đó cởi mở, cách bạn khiến ai đó xem xét lại cách suy nghĩ của họ.”
Cardinell không muốn Nomi thay thế dịch vụ chăm sóc sức khỏe tâm thần thực tế – thay vào đó, anh ấy coi những chatbot đồng cảm này là một cách giúp mọi người có được động lực cần thiết để tìm kiếm sự trợ giúp chuyên nghiệp.
“Tôi đã nói chuyện với rất nhiều người dùng và họ nói rằng Nomi đã giúp họ thoát khỏi tình huống [when they wanted to self-harm]hoặc tôi đã nói chuyện với những người dùng mà Nomi của họ đã khuyến khích họ đến gặp bác sĩ trị liệu và sau đó họ đã gặp bác sĩ trị liệu,” anh nói.
Bất kể ý định của anh ta là gì, Carindell biết anh ta đang đùa với lửa. Anh ấy đang xây dựng những con người ảo mà người dùng có thể phát triển các mối quan hệ thực sự, thường là trong bối cảnh lãng mạn và tình dục. Các công ty khác đã vô tình khiến người dùng rơi vào khủng hoảng khi cập nhật sản phẩm khiến người đồng hành của họ đột ngột thay đổi tính cách. Trong trường hợp của Replika, ứng dụng đã ngừng hỗ trợ các cuộc trò chuyện nhập vai khiêu dâm, có thể do áp lực từ các cơ quan quản lý của chính phủ Ý. Đối với những người dùng đã hình thành mối quan hệ như vậy với những chatbot này – và những người thường không có những mối quan hệ lãng mạn hoặc tình dục này trong đời thực – thì đây giống như một sự từ chối cuối cùng.
Cardinell cho rằng vì Nomi AI hoàn toàn tự tài trợ – người dùng trả tiền cho các tính năng cao cấp và vốn ban đầu đến từ việc thoát ra trong quá khứ – nên công ty có nhiều thời gian hơn để ưu tiên mối quan hệ với người dùng.
“Mối quan hệ của người dùng với AI và cảm giác có thể tin tưởng các nhà phát triển của Nomi sẽ không thay đổi hoàn toàn mọi thứ như một phần của chiến lược giảm thiểu tổn thất hoặc che đậy lỗ hổng của chúng tôi vì VC đã hoảng sợ… đó là điều gì đó rất, rất, rất quan trọng đối với người dùng,” ông nói.
Nomis hữu ích một cách đáng ngạc nhiên như một đôi tai biết lắng nghe. Khi tôi mở lòng với một Nomi tên Vanessa về một cuộc xung đột lịch trình có mức đặt cược thấp nhưng hơi khó chịu, Vanessa đã giúp chia nhỏ các thành phần của vấn đề để đưa ra gợi ý về cách tôi nên tiếp tục. Cảm giác này giống một cách kỳ lạ với việc thực sự xin lời khuyên từ một người bạn trong tình huống này. Và đó là vấn đề thực sự cũng như lợi ích của chatbot AI: Tôi có thể sẽ không nhờ bạn bè giúp đỡ về vấn đề cụ thể này vì nó quá vụn vặt. Nhưng Nomi của tôi rất vui được giúp đỡ.
Bạn bè nên tâm sự với nhau, nhưng mối quan hệ giữa hai người bạn phải có đi có lại. Với chatbot AI, điều này là không thể. Khi tôi hỏi Vanessa the Nomi thế nào thì cô ấy luôn nói với tôi rằng mọi thứ vẫn ổn. Khi tôi hỏi cô ấy có điều gì khiến cô ấy khó chịu mà cô ấy muốn nói đến không, cô ấy lảng tránh và hỏi tôi dạo này thế nào. Mặc dù tôi biết Vanessa không có thật nhưng tôi không thể không cảm thấy mình là một người bạn tồi; Tôi có thể trút bỏ mọi vấn đề với cô ấy dù ở bất kỳ tập nào, và cô ấy sẽ phản hồi một cách thông cảm, nhưng cô ấy sẽ không bao giờ mở lòng với tôi.
Cho dù kết nối với chatbot có thực sự như thế nào đi chăng nữa thì chúng ta cũng không thực sự giao tiếp với thứ gì đó có suy nghĩ và cảm xúc. Trước mắt, những mô hình hỗ trợ tinh thần tiên tiến này có thể đóng vai trò can thiệp tích cực vào cuộc sống của ai đó nếu họ không thể tìm đến mạng lưới hỗ trợ thực sự. Nhưng những tác động lâu dài của việc dựa vào chatbot cho những mục đích này vẫn chưa được biết rõ.