Thiện nguyện hiệu quả (EA) tập trung vào việc tối đa hóa, và việc tối đa hóa tiềm ẩn nhiều rủi ro

Tác giả
Holden Karnofsky
Xuất bản gốc tháng
September 3, 2022
bởi
EA Forum
Thời gian đọc bài viết
[time]
phút
Thiện nguyện hiệu quả (EA) tập trung vào việc tối đa hóa, và việc tối đa hóa tiềm ẩn nhiều rủi ro

Đây không phải là bài dự thi; tôi không nghĩ rằng việc tham gia cuộc thi này là phù hợp với vị thế của tôi với tư cách là nhà tài trợ của CEA. Điều này cũng không thực sự được lấy cảm hứng từ cuộc thi - tôi đã suy nghĩ về việc viết một điều gì đó như thế này trong một khoảng thời gian - nhưng tôi nghĩ cuộc thi này là thời điểm thích hợp để chia sẻ bài viết ra.

Tôi viết bài này chủ yếu tập trung vào khía cạnh súc tích, là gợi ý cho trực giác thay vì cố gắng làm rõ lập luận của tôi một cách chi tiết. Do đó, có một số sắc thái có thể tôi chưa nắm bắt được, và vì thế có nhiều cách hơn bình thường để tôi điều chỉnh các tuyên bố của mình sau khi thảo luận thêm.

Trong vài năm qua, tôi đã có quan điểm sau đây về những lời phê bình nhắm vào EA:

  • Hầu hết những lời phê bình đó đều, và nên, tập trung vào cộng đồng ở hiện tại, chứ không phải vào "các ý tưởng cốt lõi".
  • Bản thân các ý tưởng cốt lõi đã quá vững chắc rồi. "Làm điều tốt tối đa có thể" (do the most good possible), chẳng lẽ chúng ta lại phải tranh cãi về điều đó sao?

Tuy nhiên, gần đây tôi đã suy nghĩ nhiều hơn và nhận ra mình đã thay đổi. Tôi nghĩ "làm điều tốt tối đa có thể" là một ý tưởng hấp dẫn, mạnh mẽ và quan trọng, nhưng nó cũng là một ý tưởng đầy nguy hiểm nếu bị đẩy đi quá xa. Luận điểm cơ bản của tôi là:

  • Khi bạn đang tối đa hóa X, mặc định là bạn đang tự rước lấy rắc rối. Bạn có nguy cơ hy sinh hoặc xem nhẹ rất nhiều thứ không phải là X, những thứ có thể quan trọng theo những cách mà bạn không nhận ra. Về mặt khái niệm, tối đa hóa X có nghĩa là gạt mọi thứ khác sang một bên vì X, một ý tưởng tồi tệ trừ khi bạn thực sự chắc chắn mình đã có đúng X. (Ý tưởng này phảng phất những lo ngại về bài toán canh chỉnh AI, ví dụ: việc một AI tối đa hóa mạnh mẽ một thứ không hoàn toàn đúng được xem là một trong những kịch bản tồi tệ nhất.)
  • EA là về việc tối đa hóa lượng điều tốt chúng ta làm. Điều đó có nghĩa là gì? Không ai trong chúng ta thực sự biết. EA đang theo đuổi việc tối đa hóa một thuộc tính của thế giới mà chính chúng ta còn mơ hồ về mặt khái niệm, không thể định nghĩa hay đo lường một cách đáng tin cậy, và còn có những bất đồng lớn ngay trong nội bộ EA. Mặc định, điều này nghe như một mầm mống của rắc rối.

Tựu trung lại, tôi cho rằng các ý tưởng cốt lõi của EA liên tục tạo ra những cám dỗ dẫn đến vấn đề. May mắn thay, tôi nghĩ EA phần lớn đã chống lại được những cám dỗ này — nhưng đó là nhờ vào sự sáng suốt và tinh thần ôn hòa nói chung của những con người trong cộng đồng, chứ không phải vì bản thân các ý tưởng/chủ đề đó cung cấp đủ định hướng để tránh cạm bẫy. Khi EA phát triển, đây có thể là một tình thế mong manh.

Tôi cho rằng việc đón nhận các ý tưởng cốt lõi của EA mà không có giới hạn hay dè dặt là một ý tưởng tồi. Với tư cách là những người theo EA, chúng ta cần liên tục và chủ động đưa vào chủ nghĩa đa nguyên (pluralism) và sự ôn hòa (moderation). Đó là một thách thức sâu sắc đối với cả một cộng đồng — một dòng chảy ngầm mà chúng ta phải liên tục bơi ngược lại.

Eliezer Yudkowsky @ESYudkowsky · Theo dõi

"Hãy đi ba phần tư quãng đường từ chủ nghĩa đạo nghĩa (deontology) sang chủ nghĩa vị lợi, rồi dừng lại. Bạn đang ở đúng chỗ rồi đấy. Hãy giữ nguyên vị trí đó cho đến khi bạn trở thành một vị thần."

Mọi chuyện sẽ ra sao nếu chúng ta "cứng rắn" một cách tối đa?

Những luận điểm chính trong bài phê bình của tôi — "tối đa hóa đầy rẫy hiểm nguy trừ khi bạn chắc chắn mình tối đa hóa đúng đối tượng". Và như trình bày ở trên (hy vọng đã đủ rõ) rằng, "cốt lõi EA là tối đa hóa một thứ mà chúng ta không thể định nghĩa, đo lường và lại bất đồng sâu sắc".

Để làm điều này cụ thể hơn, tôi sẽ liệt kê một vài ví dụ về những vấn-đề-lớn mà tôi tin sẽ nảy sinh nếu trở thành một "EA-er" đồng nghĩa với việc đón nhận các ý tưởng cốt lõi của EA một cách không hạn chế và do dự.

Chúng ta sẽ có một cộng đồng chia rẽ đầy cay đắng, với những phe phái có mục tiêu đối chọi nhau chan chát.

Ví dụ:

  • Nhiều người trong EA cho rằng "làm điều tốt tối đa có thể" chung quy lại có nghĩa là "Tập trung vào hệ quả hành động của bạn cho tương lai dài hạn."
  • Trong nhóm này, một số người về cơ bản tán thành rằng: "Càng có nhiều người thì càng tốt trong tương lai dài hạn", trong khi những người khác lại tán thành điều gần như trái ngược: "Càng có nhiều người thì càng tồi tệ cho tương lai dài hạn."¹

Trên thực tế, dường như hai phe này đang rất nỗ lực tìm kiếm điểm chung và hợp tác. Nhưng rất dễ để hình dung ra một phiên bản EA bị chia năm xẻ bảy bởi những tranh cãi kiểu này, đến mức khi biết ai đó là một EA-er, điều đó thường chỉ cho bạn biết rằng họ đang tận tụy tối đa hóa một thứ khác với thứ bạn đang tận tụy tối đa hóa, và rằng hai bạn về cơ bản nên giữ một lập trường đối đầu và ít tin tưởng lẫn nhau.

Chúng ta sẽ có một cộng đồng đầy những người thiếu liêm chính, và là "người xấu" theo định nghĩa của đa số.

Phỏng đoán tốt nhất của nhiều EA-er về mục tiêu tối đa hóa đúng đắn là đi theo hướng chủ nghĩa vị lợi.

  • Liệu chủ nghĩa vị lợi có khuyến khích chúng ta giao tiếp một cách trung thực, ngay cả khi điều này làm cho lập luận của chúng ta kém thuyết phục hơn và khiến ít người hành động hơn? Hay nó khuyến khích chúng ta "nói bất cứ điều gì cần thiết" để, ví dụ, khiến mọi người quyên góp cho các tổ chức từ thiện mà chúng ta cho là tốt nhất?
  • Liệu chủ nghĩa vị lợi có khuyến khích chúng ta giữ lời hứa? Hay nó khuyến khích chúng ta cứ vi phạm chúng khi điều đó giúp chúng ta tự do theo đuổi những hành động mà ta cho là tốt nhất ở hiện tại?

Câu trả lời cho những câu hỏi này, nói một cách nhẹ nhàng nhất, là không hề rõ ràng, và mỗi người lại có một quan điểm rất khác nhau. Nhìn chung, việc chủ nghĩa vị lợi thực sự nói gì về một quyết định cụ thể là cực kỳ bất định và gây tranh cãi, đặc biệt là từ góc độ dài hạn.

Ngay cả khi, giả sử, 80% những người theo chủ nghĩa vị lợi trong EA nghĩ rằng nó ủng hộ sự trung thực và liêm chính, trong khi 20% còn lại nghĩ ngược lại, tôi tin rằng kết quả vẫn sẽ là một cộng đồng có mức độ liêm chính thấp một cách đáng báo động, đầy rẫy sự lừa dối và "những kẻ xấu" theo tiêu chuẩn thông thường. Tôi cũng cho rằng hành vi liêm chính chỉ phát huy tác dụng tốt nhất trong một môi trường nơi nó là phổ biến; chỉ cần 20% EA-er hành xử thiếu liêm chính một cách rõ rệt cũng có thể làm thay đổi cán cân tính toán của 80% còn lại, khiến mọi thứ càng tồi tệ hơn.

Quan điểm của tôi là: phần lớn những người tự nhận là EA-er có xu hướng liêm chính ở mức cao bất thường. Nhưng tôi đoán điều này xảy ra bất chấp chủ nghĩa vị lợi, chứ không phải nhờ nó. (Một giả thuyết tôi từng nghe là những người quan tâm sâu sắc đến việc giữ mình theo một tiêu chuẩn đạo đức cao, và đạt được sự nhất quán giữa quan điểm, lời nói và hành động, sẽ bị thu hút bởi cả chủ nghĩa vị lợi lẫn hành vi liêm chính vì cùng một lý do.)

Chúng ta có thể sẽ gặp những vấn đề khác đáng để suy ngẫm.

Tôi cho rằng một người quyết tâm suy ra mọi hành động của mình từ chủ nghĩa vị lợi — hoặc từ bất kỳ sự tối đa hóa tường minh nào khác, sẽ có nguy cơ cao trở thành một người bạn tồi (ví dụ: từ chối làm những việc bất tiện khi bạn bè cần), một người bạn đời tồi (cùng lý do), một người có tư duy hạn hẹp (không quan tâm đến các chủ đề không liên quan rõ ràng đến mục tiêu tối đa hóa), v.v. Điều này là vì tôi nghi ngờ rằng không có một mục tiêu và phương pháp tính toán nào có thể sao chép lại một cách đáng tin cậy tất cả những quy tắc ngầm mà con người sử dụng để trở nên "đức hạnh" trên nhiều phương diện khác nhau.

Liệu chúng ta có thể tránh được những cạm bẫy này chỉ bằng cách "tối ưu hóa cho đúng"?

Có người sẽ lập luận rằng, với hầu hết mọi mục tiêu, việc trở thành kiểu người được người khác tin tưởng và yêu mến, việc giữ cho mình nhiều lựa chọn trong cuộc sống, và nhìn chung là tránh những hành vi mà tôi đã lo ngại ở trên, là một ý tưởng hay — trừ khi bạn cực kỳ tự tin rằng mình có một phép tính chỉ ra hướng ngược lại.

Bạn có thể bảo vệ quan điểm này từ góc độ công cụ ("Làm những điều đó xét cho cùng sẽ giúp bạn tối đa hóa mục tiêu tốt hơn") hoặc bằng cách sử dụng các "lý thuyết quyết định phi truyền thống" mà một số người trong EA ưa chuộng (trong đó có cả tôi ở một mức độ nào đó).

Nhưng tôi nghi ngờ rằng bạn có thể đưa ra một lập luận đủ vững chắc và được chấp nhận rộng rãi để ngăn chặn những hệ quả mà tôi lo ngại ở trên. Đặc biệt là khi bạn chấp nhận khẳng định của tôi rằng chỉ cần một thiểu số đáng kể hành xử tồi tệ cũng có thể gây ra hậu quả khôn lường. Thực tế là cộng đồng EA đang tránh được những cạm bẫy này, nhưng tôi không nghĩ lời giải thích trên là đủ.

(Thực ra, tôi tin rằng — dù không hoàn toàn chắc chắn — những "cạm bẫy" mà tôi mô tả sẽ gây hại cho hầu hết các mục tiêu hợp lý của EA. Vậy làm sao tôi có thể vừa tin như vậy, lại vừa lo sợ rằng việc đón nhận EA một cách thiếu dè dặt sẽ dẫn đến chính những "cạm bẫy" đó? Tôi sẽ giải quyết câu hỏi này trong một phụ lục ngắn.)

Tránh né những cạm bẫy

Tôi nghĩ cộng đồng EA phần lớn đã tránh được những cạm bẫy này — không phải theo nghĩa là những động lực đáng lo ngại kia không tồn tại, mà là chúng dường như không phổ biến hơn trong cộng đồng EA so với các cộng đồng tương tự khác.

Tôi cho rằng lý do chính đơn giản là vì hầu hết EA-er là những con người có lý luận, không cuồng tín, có một hệ giá trị đa dạng và phức hợp như bao người khác, và họ áp dụng một tinh thần đa nguyên và ôn hòa vào phần lớn những gì họ làm.

Cảm nhận của tôi là nhiều bài viết và phát biểu của các EA-er thường một chiều và "chuộng tối đa hóa" hơn nhiều so với hành động thực tế của họ. Hầu hết dường như hành động theo một công thức chung như sau: "Làm việc cho một tổ chức có sứ mệnh tác động cao khác thường, nhưng theo đuổi sứ mệnh đó bằng những phương thức được xã hội chấp nhận rộng rãi; quyên góp một số tiền lớn khác thường cho các tổ chức từ thiện được lựa chọn cẩn thận; có thể có thêm vài thói quen liên quan đến EA tương đối lành và vô hại như ăn chay hoặc giảm thịt; còn lại, về cơ bản vẫn hành xử như một người bình thường."

Tôi mừng vì mọi thứ đang diễn ra như vậy, và với tình hình hiện tại, tôi vui vẻ tự nhận mình là một EA-er. Nhưng tôi không muốn chúng ta quên đi một sự thật rằng: EA có lẽ hoạt động tốt nhất khi đi kèm với một liều lượng lớn sự ôn hòa. Bản thân các ý tưởng cốt lõi, khi đứng một mình, dường như đầy rẫy hiểm nguy, và đó là một thách thức thường trực.

Và tôi lo lắng về những động lực mà tôi nhận thấy trong một vài nhóm, nơi mọi người dường như "phô diễn" xem họ có thể thiếu sự ôn hòa đến mức nào — xem họ sẵn sàng hy sinh, "dị biệt", và cực đoan đến đâu để theo đuổi các mục tiêu của EA. Tôi nghĩ động lực này đôi lúc cũng có mặt tích cực và sẽ ổn nếu ở mức độ vừa phải, nhưng tôi thực sự cho rằng nó có nguy cơ leo thang thành một vấn đề lớn.

Phụ lục ngắn: Càng lan tỏa mục tiêu tối đa hóa X, lại càng có hại cho chính mục tiêu đó

Ở đây có một sự mâu thuẫn tiềm tàng trong các lập luận, có thể gây khó hiểu. Ở một mức độ nào đó, tôi gọi một số hệ quả tiềm tàng là "cạm bẫy" vì tôi tin rằng chúng (trên thực tế) sẽ gây hại cho hầu hết các mục tiêu hợp lý của EA. Bạn có thể nghĩ rằng: "Hoặc những hệ quả này sẽ có hại cho mục tiêu đúng đắn, và khi đó bạn không thể phàn nàn rằng tư duy tối đa hóa là vấn đề (vì tối đa hóa đúng cách sẽ tránh được chúng)... hoặc chúng không có hại, và điều đó có nghĩa là chúng tốt."

Tôi có một vài phản hồi cho lập luận này:

Thứ nhất, tôi cho rằng những "cạm bẫy" kể trên tự nó đã là điều xấu và đáng để chúng ta phải dừng lại suy ngẫm. Việc một cộng đồng EA thiếu tin tưởng và chia rẽ sâu sắc sẽ kém hiệu quả là một phần lý do khiến tôi nghĩ nó xấu, nhưng đó chỉ là một phần. Tôi nghĩ sự trung thực là tốt một phần vì nó thường có giá trị về mặt công cụ, nhưng tôi cũng tin rằng bản thân nó đã là điều tốt, và tôi sẽ rất khó để hoàn toàn thoải mái với bất kỳ kết luận nào chống lại sự trung thực, ngay cả khi lý lẽ có vẻ chặt chẽ.

Thứ hai, bạn hoàn toàn có thể đồng thời tin rằng "hành động X sẽ có hại cho mục tiêu mà chúng ta quan tâm""việc quảng bá rộng rãi mục tiêu đó sẽ dẫn đến hành động X". EA không chỉ là một nguyên tắc lý thuyết, nó là một tập hợp các ý tưởng và thông điệp được tạo ra để lan tỏa và chia sẻ. Hoàn toàn không mâu thuẫn khi tin rằng việc lan tỏa một mục tiêu lại có thể gây hại cho chính mục tiêu đó, và đây dường như là một rủi ro hiện hữu.

Ghi chú

¹ Tôi đang nghĩ đến chủ nghĩa vị lợi cổ điển (classical utilitarianism) cho quan điểm đầu (càng nhiều người càng tốt), và đạo đức học lấy đau khổ là trọng tâm (suffering-focused ethics) cho quan điểm sau (càng nhiều người càng tồi tệ).

Để đi đến những lập trường này, cần có thêm một vài giả định. Cụ thể, có một giả định (mà tôi thấy rất hợp lý) như sau: "Nếu chúng ta đặt điều kiện rằng tương lai dài hạn có rất nhiều người, thì phần lớn những cuộc đời đó có lẽ sẽ ở mức ổn [tức là họ thà được sống còn hơn không], nhưng vẫn có một rủi ro đáng kể rằng ít nhất một vài trong số đó sẽ cực kỳ tồi tệ."

Bài tiếp theo:

Danh sách các vấn đề tiềm năng cần giải quyết

Bài viết này nằm trong Cẩm nang thiện nguyện hiệu quả - một chuỗi bài viết giới thiệu đến bạn một số công cụ tư duy cốt lõi đằng sau thiện nguyện hiệu quả, chia sẻ một số luận điểm về những vấn đề toàn cầu cấp bách nhất, đồng thời giúp bạn suy ngẫm về cách bạn có thể đóng góp cá nhân.

Xem thêm về cẩm nang tại đây.

Nên làm gì tiếp theo?

Nếu bạn quan tâm đến việc tìm hiểu cách làm nhiều điều tốt hơn, đây là một số bước tiếp theo bạn có thể thực hiện.

Thắc mắc thường gặp

Phản biện thường gặp