‘Máy nói’ thay người chết - xem xét về vấn đề đạo đức và xã hội của các bên

Giúp NTDVN sửa lỗi

Các hệ thống học máy, máy nói, trí tuệ nhân tạo,… xuất hiện ngày càng nhiều trong cuộc sống hàng ngày của chúng ta. Bên cạnh những thuận tiện cho sinh hoạt, chúng cũng thách thức các giá trị đạo đức, văn hóa và xã hội cũng như các quy tắc chi phối chúng. 

Chúng ta hãy thử xem xét một trường hợp của Joshua Barbeau, một người đàn ông 33 tuổi đã sử dụng một trang web có tên là Project December để tạo ra một robot - một chatbot - một ứng dụng có thể tự trò chuyện với anh thay cho người vợ chưa cưới đã chết của anh ấy, Jessica.

Phát triển Robot trò chuyện bắt chước người đã chết

Được biết đến như một deadbot, loại chatbot này cho phép Barbeau trao đổi tin nhắn với một ‘người vợ nhân tạo’, tên là Jessica đã qua đời của anh ấy.

Một Dự án Tháng Mười Hai được tạo ra bởi nhà phát triển trò chơi Jason Rohrer để cho phép mọi người tùy chỉnh các chatbot với tính cách mà họ muốn tương tác, miễn là họ phải trả tiền cho nó.

Dự án được xây dựng dựa trên công nghệ GPT-3, một mô hình ngôn ngữ bao gồm hai mạng thần kinh tự cạnh tranh để hoàn thiện lẫn nhau của công ty nghiên cứu trí tuệ nhân tạo OpenAI. Trường hợp của Barbeau đã mở ra một rạn nứt giữa Rohrer và OpenAI vì các nguyên tắc của công ty nghiêm cấm GPT-3 được sử dụng cho các mục đích tình dục, đa tình, tự làm hại bản thân hoặc bạo lực.

Quan điểm của OpenAI là cần bảo toàn giá trị đạo đức và cho rằng những người như Barbeau là "người lợi dụng", Rohrer đã đóng cửa phiên bản GPT-3 của Project December.

Mặc dù tất cả chúng ta đều có thể có trực giác về việc phát triển một deadbot máy học là đúng hay sai về mặt đạo đức. Đây là lý do tại sao điều quan trọng là phải giải quyết từng bước các câu hỏi đạo đức mà vụ việc nêu ra.

Việc phát triển một deadbot máy nói thay người đã chết có hợp đạo đức hay không?

Vì Jessica là một người thật (mặc dù đã chết), Barbeau đồng ý tạo ra một deadbot bắt chước một phần nào của cô ấy. Khi con người chết, những người còn sống khác cần phải tôn trọng những nguyện vọng của người đã chết. Đây là lý do tại sao xã hội của chúng ta coi việc xúc phạm hoặc thiếu tôn trọng đối với nguyện vọng của người chết là sai trái. Nói cách khác, chúng ta có những nghĩa vụ đạo đức nhất định đối với người chết, cần để cho họ có sự tĩnh lặng cần thiết.

Vì vậy câu hỏi thứ nhất là: Liệu việc phát triển một deadbot máy nói có hợp đạo đức hay không và chúng ta có nên bảo vệ các quyền cơ bản của người chết (ví dụ: quyền riêng tư và dữ liệu cá nhân) hay không. Việc phát triển một deadbot tái tạo tính cách của một ai đó đòi hỏi một lượng lớn thông tin cá nhân của họ, kể cả những đặc điểm nhạy cảm nhất của họ.

Nếu chúng ta đồng ý rằng việc sử dụng dữ liệu của mọi người mà không có sự đồng ý của họ khi họ còn sống là trái đạo đức, thì tại sao việc làm như vậy sau khi họ qua đời lại là trái đạo đức? Theo nghĩa đó, khi phát triển một deadbot, có vẻ hợp lý khi yêu cầu sự đồng ý của cá nhân đó - trong trường hợp này là Jessica.

Cái chết ngăn cách chúng ta với những người thân yêu, nhưng liệu ‘máy nói’ có thể đưa họ trở lại cuộc sống?
Cái chết ngăn cách chúng ta với những người thân yêu, nhưng liệu ‘máy nói’ có thể đưa họ trở lại cuộc sống? (Ảnh: CongerDesign/Pixabay)

Nếu người đã chết đồng ý tạo máy nói thay họ?

Câu hỏi thứ hai là: Liệu sự đồng ý của Jessica có đủ để coi việc tạo ra deadbot của cô ấy là đạo đức không? Điều gì sẽ xảy ra nếu nó làm sai nguyện vọng của cô ấy?

Giới hạn của sự đồng ý, ở đây thực sự, là một vấn đề gây tranh cãi. Lấy ví dụ điển hình về câu chuyện “Kẻ giết người Rotenburg”, kẻ bị kết án tù chung thân mặc dù nạn nhân của hắn đã đồng ý để bị hắn giết. Về vấn đề này, người ta đã lập luận rằng việc đồng ý với những việc có thể gây tổn hại cho bản thân là phi đạo đức. Kể cả ác trường hợp đồng y mua - bán các cơ quan nội tạng của con người hoặc yêu cầu họ từ bỏ quyền lợi cá nhân cũng bị xem xét là phi đạo đức.

Về mặt cụ thể, bất cứ điều gì có thể gây bất lợi cho người chết là một vấn đề đặc biệt phức tạp. Tuy nhiên, cần lưu ý rằng ngay cả khi người chết không thể bị tổn hại hoặc xúc phạm theo cách giống như người sống, điều này không có nghĩa là họ không thể bị xâm hại trước những hành động xấu, cũng không phải là những hành động có đạo đức.

Người chết có thể bị tổn hại danh dự, danh tiếng hoặc nhân phẩm của họ (ví dụ, các chiến dịch bôi nhọ di cảo), và sự thiếu tôn trọng đối với người chết cũng gây hại cho những người thân của họ. Hơn nữa, cư xử không tốt với người chết dẫn chúng ta đến một xã hội bất công hơn và ít tôn trọng nhân phẩm của con người hơn.

Cuối cùng, do tính linh hoạt và không thể đoán trước của hệ thống máy học, có nguy cơ xảy ra rủi ro rằng, mặc dù người chết đã đồng ý khi còn sống, không có ý nghĩa là máy học đều có thể thực hiện đúng với nguyện vọng của họ.

Xem xét tất cả những điều này, có vẻ hợp lý để kết luận nếu quá trình phát triển deadbot không tương ứng với những gì người chết đã đồng ý khi còn sống, thì sự đồng ý của họ sẽ bị coi là không hợp lệ. Hơn nữa, nếu điều đó rõ ràng và cố ý làm tổn hại đến nhân phẩm của họ, thì ngay cả sự đồng ý của họ cũng không đủ để coi đó là đạo đức.

Ai là người chịu trách nhiệm?

Vấn đề thứ ba là: Liệu các hệ thống trí tuệ nhân tạo có nên bắt chước bất kỳ loại hành vi nào của con người hay không (bất kể điều này có khả thi hay không).

Đây là mối quan tâm mãi mãi trong lĩnh vực AI và nó có liên quan chặt chẽ đến tranh chấp giữa Rohrer và OpenAI. Chẳng hạn, chúng ta có nên phát triển các hệ thống nhân tạo có khả năng chăm sóc người khác hoặc đưa ra các quyết định chính trị không?

Có vẻ như có điều gì đó trong những kỹ năng này khiến con người trở nên khác biệt với các loài động vật khác và với máy móc. Do đó, điều quan trọng cần lưu ý là việc tạo công cụ cho AI hướng tới mục tiêu của các nhà công nghệ, chẳng hạn như thay thế những người thân yêu có thể dẫn đến sự mất giá trị của những gì đặc trưng cho chúng ta là con người.

Câu hỏi đạo đức thứ tư là ai chịu trách nhiệm về kết quả của một deadbot - đặc biệt là trong trường hợp tác động có hại.

Giả sử rằng Jessica ‘máy nói’ này đã tự học được cách làm theo trí nhớ của cô ấy, nhưng nó lại làm tổn hại sức khỏe tâm thần của Barbeau đến mức không thể phục hồi. Ai sẽ chịu trách nhiệm? Các chuyên gia AI trả lời câu hỏi hóc búa này thông qua 2 cách tiếp cận chính: thứ nhất, trách nhiệm thuộc về những người tham gia thiết kế và phát triển hệ thống; thứ hai, chiếc ‘máy nói’ này phụ thuộc vào ngữ cảnh, vì vậy trách nhiệm đạo đức đối với đầu ra của chúng nên được phân bổ cho tất cả các tác nhân tương tác với nó.

Trong trường hợp thứ nhất, vì có sự đồng sáng tạo deadbot có liên quan đến OpenAI, Jason Rohrer và Joshua Barbeau, vì vậy, việc phân tích mức độ trách nhiệm của mỗi bên là hợp lý.

Đầu tiên, thật khó để buộc OpenAI phải chịu trách nhiệm sau khi họ cấm rõ ràng việc sử dụng hệ thống của mình cho các mục đích tình dục, đa tình, tự làm hại bản thân hoặc bạo lực.

Có vẻ hợp lý khi quy trách nhiệm đạo đức ở mức đáng kể cho Rohrer vì anh ta: (a) đã thiết kế hệ thống một cách rõ ràng để có thể tạo ra deadbot; (b) đã thực hiện mà không lường trước các biện pháp để tránh các kết quả bất lợi có thể xảy ra; (c) biết rằng nó không tuân thủ các nguyên tắc của OpenAI; và (d) được hưởng lợi từ nó.

Và bởi vì Barbeau đã tùy chỉnh thiết kế deadbot dựa trên các đặc điểm cụ thể của Jessica, có vẻ như hợp pháp khi bắt anh ta phải chịu trách nhiệm trong trường hợp máy nói không thực hiện theo trí nhớ của Jessica.

Xem xét vấn đề Đạo đức trong những điều kiện nhất định

Vì vậy, quay trở lại câu hỏi chung đầu tiên là liệu việc phát triển một deadbot máy nói có hợp đạo đức hay không, chúng ta có thể đưa ra câu trả lời khẳng định với điều kiện:

  • Cả người được bắt chước và người tùy chỉnh và tương tác với nó đã đồng ý cung cấp miễn phí các thông tin mô tả chi tiết nhất có thể về thiết kế, phát triển và sử dụng hệ thống;
  • Việc phát triển và sử dụng không tuân theo những gì người được bắt chước đồng ý hoặc đi ngược lại phẩm giá của họ đều bị cấm;
  • Những người liên quan đến sự phát triển máy nói và những người thu lợi từ nó phải chịu trách nhiệm về những kết quả tiêu cực tiềm ẩn của nó. Cả về mặt hồi tố, để giải thích các sự kiện đã xảy ra và theo hướng tiềm năng, để chủ động ngăn chặn chúng xảy ra trong tương lai.

Trường hợp này minh chứng cho lý do tại sao vấn đề đạo đức của máy nói lại quan trọng. Nó cũng minh họa tại sao cần mở một cuộc tranh luận công khai để có thể cung cấp thông tin tốt hơn cho công dân và giúp các nhà quản lý phát triển các biện pháp chính sách để làm cho các hệ thống AI cởi mở hơn, công bằng về mặt xã hội và tuân thủ các quyền cơ bản của con người.

Theo The Conversation

Khoa học Công nghệ


BÀI CHỌN LỌC

‘Máy nói’ thay người chết - xem xét về vấn đề đạo đức và xã hội của các bên