21 Bài Học Cho Thế Kỷ 21 - Chương 03
3
* * *
Tự Do
BIG DATA ĐANG THEO DÕI NGƯƠI ĐẤY
CÂU CHUYỆN tự do tôn vinh quyền tự do của con người là giá trị số một của nó. Nó lý luận rằng xét cho cùng, mọi quyền lực đều bắt nguồn từ ý chí tự do của các cá nhân, được thể hiện bằng cảm xúc, ham muốn và lựa chọn của họ. Trong chính trị, chủ nghĩa tự do tin rằng cử tri biết rõ nhất. Do đó, nó đề cao các cuộc bầu cử dân chủ. Trong kinh tế, chủ nghĩa tự do cho rằng khách hàng luôn đúng. Do đó, nó tung hô các nguyên tắc thị trường tự do. Trong các vấn đề cá nhân, chủ nghĩa tự do khuyến khích con người lắng nghe chính mình, chân thực với bản thân và đi theo trái tim, miễn là đừng làm ảnh hưởng đến quyền tự do của người khác. Tự do cá nhân được tôn thờ trong quyền con người.
Trong các diễn ngôn chính trị phương Tây, thuật ngữ “tự do” ngày nay đôi khi được dùng trong một nghĩa đảng phái hẹp hơn rất nhiều, để chỉ những người ủng hộ các vấn đề nhất định như hôn nhân đồng giới, kiểm soát súng đạn và quyền phá thai. Thế nhưng hầu hết những người được gọi là bảo thủ cũng ủng hộ thế giới quan tự do theo nghĩa rộng. Ở Mỹ chẳng hạn, cả đảng viên Cộng hòa lẫn Dân chủ thỉnh thoảng cũng nên tạm hoãn những cuộc tranh luận nảy lửa để tự nhắc rằng cả hai bên đều đồng thuận về các vấn đề cơ bản, như bầu cử tự do, tư pháp độc lập và nhân quyền.
Đặc biệt, nhất thiết phải nhớ rằng những người hùng cánh hữu như Ronald Reagan và Margaret Thatcher là những người bảo vệ vĩ đại không chỉ cho tự do kinh tế mà còn cho tự do cá nhân nữa. Trong một cuộc phỏng vấn nổi tiếng năm 1987, Thatcher nói: “Chẳng có cái gì gọi là xã hội cả. Chỉ có một thảm sống gồm đàn ông và đàn bà… và chất lượng cuộc sống của chúng ta phụ thuộc vào việc mỗi người trong chúng ta sẵn sàng chịu trách nhiệm cho bản thân đến mức độ nào.”
Những người kế thừa Thatcher trong Đảng Bảo thủ hoàn toàn đồng ý với Công Đảng về việc quyền hành chính trị đến từ cảm xúc, lựa chọn và ý chí tự do của các cử tri đơn lẻ. Khi nước Anh cần quyết định xem có nên rời Liên minh châu Âu không, Thủ tướng David Cameron đã không đề nghị Nữ hoàng Elizabeth II, Tổng giám mục Canterbury hay các nhà quý tộc Oxford và Cambridge giải quyết vấn đề. Ông ta thậm chí không yêu cầu các thành viên Nghị viện. Thay vào đó, ông ta tổ chức một cuộc trưng cầu dân ý, trong đó từng người dân Anh được hỏi: “Bạn cảm thấy thế nào về việc đó?”
Bạn có thể phản biện rằng người ta được hỏi “Bạn nghĩ gì?” chứ không phải “Bạn cảm thấy gì?”, nhưng đây là một hiểu lầm phổ biến. Các cuộc trưng cầu và bầu cử luôn luôn nhắm đến cảm giác của con người, không phải lý trí của họ. Nếu dân chủ là vấn đề ra quyết định theo lý trí thì chẳng có lý do gì phải cho mọi người quyền bầu cử như nhau, thậm chí là bất cứ quyền bỏ phiếu nào. Nhiều bằng chứng cho thấy một số người hiểu biết và lý trí hơn rất nhiều so với những người khác, nhất là khi đụng đến các câu hỏi về kinh tế và chính trị nhất định. Sau cuộc trưng cầu dân ý Brexit, nhà sinh vật học nổi tiếng Richard Dawkins bày tỏ quan điểm cho rằng đáng lẽ người ta không nên yêu cầu đại đa số công chúng Anh, bao gồm chính ông, bỏ phiếu vì họ thiếu nền tảng cần thiết về kinh tế học và khoa học chính trị. “Anh cũng có thể kêu gọi một cuộc trưng cầu toàn quốc để quyết định xem liệu Einstein tính đại số có đúng không, hay để hành khách bỏ phiếu cho đường băng mà phi công nên hạ cánh.”
Tuy nhiên, dù hay hay dở, các cuộc bầu cử và trưng cầu dân ý không nhắm đến điều chúng ta nghĩ. Chúng nhắm đến chuyện chúng ta cảm thấy gì. Và khi nói đến cảm giác, cả Einstein và Dawkins cũng chẳng khá hơn bất cứ ai. Dân chủ mặc định là cảm giác của con người phản ánh một “ý chí tự do” kỳ bí và sâu xa, cái “ý chí tự do” này là nguồn cơn tối thượng của mọi quyền lực, và mặc dù một số người thông minh hơn người khác, mọi người đều tự do như nhau. Cũng như Einstein và Dawkins, một cô hầu gái mù chữ cũng có ý chí tự do, do đó đến ngày bầu cử thì cảm giác của cô ta, đại diện bằng lá phiếu của cô, cũng có giá trị như của mọi người khác.
Cảm giác không chỉ dẫn lối các cử tri mà cả các nhà lãnh đạo. Trong cuộc trưng cầu dân ý Brexit năm 2016, chiến dịch Rời Bỏ được Boris Johnson và Michael Gove dẫn đầu. Sau khi David Cameron từ chức, ban đầu Gove ủng hộ Ịohnson lên làm thủ tướng; nhưng đúng phút cuối, Gove tuyên bố Johnson không phù hợp với vị trí đó và công khai ý định chạy đua giành ghế của mình. Hành động của Gove, xem như hủy hoại cơ hội của Johnson, được mô tả như một vụ ám sát chính trị kiểu Machiavellia. Nhưng Gove biện hộ cho hành vi của mình bằng cách viện dẫn cảm giác của bản thân, giải thích rằng: “Trong mọi bước đi của cuộc đời chính trị của mình, tôi luôn đặt cho mình một câu hỏi: “Việc đúng đắn cần phải làm là gì? Trái tim này nói với mình điều gì?” Theo Gove, đấy là lý do ông ta chiến đấu hết mình cho Brexit, cũng là lý do ông cảm thấy mình phải đâm sau lưng “đồng chí” cũ Boris Johnson của mình và đích thân chạy đua giành vị trí dẫn đầu, bởi trái tim mách bảo ông ta làm như vậy.
Sự lệ thuộc vào trái tim này có thể trở thành gót chân Achilles cua nên dân chủ tự do. Vì một khi ai đó (dù là ở Bắc Kinh hay San Francisco) đạt được tầm công nghệ để bẻ khóa và điều khiển trái tim con người thì nền chính trị dân chủ sẽ biến dạng.
—ooOoo—
LẮNG NGHE THUẬT TOÁN
NIỀM TIN của chủ nghĩa tự do vào cảm giác và lựa chọn tự do của cá nhân là không tự nhiên cũng như không cổ xưa cho lắm. Trong suốt nhiều ngàn năm, con người tin rằng quyền hành đến từ các luật lệ thiêng hơn là từ trái tim con người, rằng chúng ta nên làm sáng lời Chúa hơn là vinh danh tự do của con người. Chỉ trong vài thế kỷ trở lại đây, nguồn gốc của quyền hành mới chuyển từ thần thánh ở trên trời xuống với con người bằng xương bằng thịt.
Chẳng bao lâu nữa, quyền lực có thể sẽ chuyển một lần nữa, từ con người sang các thuật toán. Cũng như quyền lực thiêng được các thần thoại tôn giáo hợp thức hóa và quyền lực con người được biện minh bằng câu chuyện tự do, cuộc cách mạng công nghệ sắp tới cũng có thể thiết lập quyền lực của các thuật toán Big Data trong khi làm suy yếu chính ý tưởng về tự do cá nhân.
Như đã nói ở chương trước, những tìm tòi khoa học chuyên sâu về cách bộ não và cơ thể chúng ta hoạt động cho thấy cảm giác của chúng ta không phải là một đặc tính tinh thần độc nhất ở con người, chúng cũng không phản ánh bất cứ dạng “ý chí tự do” nào. Thay vào đó, cảm giác là các cơ chế sinh hóa mà mọi loài thú và chim sử dụng để nhanh chóng tính toán các khả năng sinh tồn và sinh sản. Cảm giác không dựa trên bản năng, cảm hứng hay tự do; chúng dựa vào tính toán.
Khi một con khỉ, chuột hay người nhìn thấy một con rắn, nỗi sợ trỗi dậy bởi hàng triệu nơron trong não chớp nhoáng tính toán các dữ liệu có liên quan và kết luận rằng xác suất tử vong là cao. Cảm giác hấp dẫn tình dục nổi lên khi các thuật toán sinh hóa khác tính ra rằng một cá thể ở gần đó cho thấy khả năng thành công cao trong việc kết đôi, gắn kết xã hội hay đạt các mục tiêu được trông đợi khác. Các cảm giác mang tính đạo đức như bức xúc, tội lỗi và tha thứ xuất phát từ các cơ thế thần kinh đă được tiến hóa để mở ra triển vọng hợp tác nhóm. Tất cả các thuật toán sinh hóa này được mài giũa qua hàng triệu nầm tiến hóa. Nếu cảm giác của một tổ tiên xa xưa nào đó là sai và kết quả là người đó mắc phải một sai lầm chết người, những gien định hình các cảm giác đó đã không truyền sang thế hệ tiếp theo. Các cảm giác do đó không phải là trái ngược với lý trí; chúng chính là hiện thân của lý trí tiến hóa.
Chúng ta thường không nhận ra cảm giác thực ra là các tính toán vì quá trình tính toán cực nhanh xuất hiện ở tầng sâu dưới ngưỡng ý thức của chúng ta. Chúng ta không cảm thấy hàng triệu nơron trong não tính toán các khả năng sinh tồn và sinh sản, thế nên ta lầm tin rằng nỗi sợ rắn, lựa chọn bạn tình hay ý kiến của chúng ta về Liên minh châu Âu là kết quả của một “ý chí tự do” bí hiểm nào đó.
Chủ nghĩa tự do đã sai khi nghĩ rằng cảm giác của chúng ta phản ánh ý chí tự do; nhưng cho đến ngày nay, việc dựa vào cảm giác vẫn hợp lý trong thực tế. Bởi mặc dù cảm giác chẳng có gì thần thông hay tự do cả thì nó vẫn là phương pháp tốt nhất trong vũ trụ để quyết định phải học cái gì, cưới ai và bầu cho đảng nào. Và không một hệ thống bên ngoài nào có thể hy vọng hiểu được cảm giác của tôi rõ hơn tôi cả. Ngay cả nếu Tòa Hình án Tây Ban Nha có rình mò tôi từng phút từng ngày, họ vẫn thiếu kiến thức sinh học và khả năng tính toán cần thiết để “bẻ khóa” những quá trình sinh hóa định hình những nguyện vọng và lựa chọn của tôi. Về cơ bản, vẫn hợp lý khi biện luận rằng tôi có ý chí tự do vì ý chí của tôi được định hình chủ yếu bởi sự tương tác của các lực bên trong, không ai bên ngoài tôi có thể thấy được. Tôi có thể tận hưởng ảo tưởng rằng mình kiểm soát đấu trường bí mật nội tại, trong khi người ngoài không bao giờ có thể thực sự hiểu điều gì đang xảy ra trong tôi và cách tôi ra quyết định.
Do đó, chủ nghĩa tự do đã đúng khi khuyên con người là hãy đi theo trái tim của mình hơn là mệnh lệnh của một thầy tu hay một thành viên của đảng phái nào đó. Tuy nhiên, sớm muộn gì các thuật toán máy tính cũng có thể đưa ra những lời khuyên tốt hơn cảm giác con người. Khi Tòa Hình án Tây Ban Nha và KGB nhường chỗ cho Google và Baidu, “ý chí tự do” rất dễ bị lật tẩy là một thứ hoang đường và chủ nghĩa tự do sẽ mất đi các lợi thế thực tế của mình.
Bởi chúng ta đang ở điểm “hợp lưu” của hai cuộc cách mạng lớn. Các nhà sinh học đang giải mã những bí mật của cơ thể người và cụ thể là não bộ và cảm giác của con người. Cùng lúc đó, các nhà khoa học máy tính đang mang lại cho chúng ta khả năng xử lý dữ liệu chưa từng có. Khi cuộc cách mạng công nghệ sinh học kết hợp với cuộc cách mạng công nghệ thông tin, chúng sẽ sinh ra các thuật toán Big Data có thể theo dõi và hiểu được cảm giác của tôi rõ hơn bản thân tôi rất nhiều, rồi quyền lực có lẽ sẽ dịch chuyển từ con người sang máy tính. Ảo tưởng về ý chí tự do của tôi rất có thể sẽ tan vỡ khi tôi ngày ngày tiếp xúc với các tổ chức, tập đoàn và cơ quan chính phủ hiểu và điều khiển được những gì mà cho tới nay vẫn là thế giới bên trong bất khả xâm phạm của tôi.
Điều này đã xảy ra trong lĩnh vực y học. Những quyết định y tế quan trọng nhất trong cuộc đời chúng ta không phụ thuộc vào cảm giác khỏe hay yếu, hay thậm chí vào những chẩn đoán của bác sĩ, mà dựa trên các tính toán của những máy tính hiểu cơ thể ta hơn bản thân ta rất nhiều. Chỉ trong vài thập kỷ, các thuật toán Big Data được cung cấp một nguồn dữ liệu sinh hóa liên tục có thể giám sát sức khỏe của chúng ta 24/7. Chúng có thể phát hiện sự khởi phát của cúm, ung thư hay bệnh Alzheimer từ rất lâu trước khi chúng ta cảm thấy có gì không ổn trong người. Sau đó, chúng có thể gợi ý các phương pháp điều trị, các chế độ ăn uống và luyện tập hằng ngày hợp lý, được xây dựng riêng dựa trên thể trạng, ADN và tính cách độc đáo của mỗi chúng ta.
Con người sẽ tận hưởng dịch vụ chăm, sóc sức khỏe tốt nhất trong lịch sử, nhưng chính vì lý do này mà có lẽ chúng ta sẽ luôn bị bệnh. Ở đâu đó trong người chúng ta, lúc nào cũng sẽ có cái gì đó không ổn. Lúc nào cũng có cái gì đó để cải thiện. Trong quá khứ, bạn thấy hoàn toàn khỏe mạnh miễn là không cảm thấy đau đớn và không xuất hiện một thương tật gì đó, ví dụ như đi khập khiễng. Nhưng đến năm 2050, nhờ các cảm biến sinh trắc và các thuật toán Big Data mà các chứng bệnh có thể được chẩn đoán và điều trị từ rất lâu trước khi chúng dẫn đến đau đớn hay thương tật. Kết quả là bạn sẽ luôn thấy mình đang gánh chịu một “tình trạng y khoa” nào đó và phải nghe theo gợi ý này, gọi ý kia của thuật toán. Nếu bạn từ chối, có thể bảo hiểm y tế của bạn sẽ mất hiệu lực hay sếp sẽ sa thải bạn; tại sao họ phải trả giá cho sự cứng đầu của bạn cơ chứ?
Tiếp tục hút thuốc mặc dù các thống kê nói chung cho thấy mối liên hệ thuốc lá với ung thư phổi là một chuyện. Tiếp tục hút thuốc dù đã có cảnh báo rõ ràng từ một cảm biến sinh trắc vừa phát hiện ra mười bảy tế bào ung thư ở vùng trên của phổi trái là một chuyện hoàn toàn khác. Và nếu bạn sẵn sàng mặc kệ cảm biến, bạn sẽ làm gì khi nó gửi cảnh báo đến công ty bảo hiểm, quản lý và mẹ bạn?
Ai sẽ có thời gian và sức lực để xử lý tất cả những bệnh tật này? Rất có khả năng chúng ta sẽ chỉ hướng dẫn để thuật toán sức khỏe của mình tự xử lý hầu hết những vấn đề trên theo cách nó thấy phù hợp. Cùng lắm, nó sẽ gửi cập nhật định kỳ đến điện thoại thông minh của chúng ta, nói với ta rằng “mười bảy tế bào ung thư đã được phát hiện và tiêu diệt”. Những người mắc chứng bệnh tưởng có thể sẽ nghiêm túc đọc những cập nhật này, nhưng phần lớn chúng ta sẽ mặc kệ như cách chúng ta vẫn làm với những thông báo chống vi-rút khó chịu trên máy tính của mình vậy.
—ooOoo—
KỊCH TÍNH CỦA VIỆC RA QUYẾT ĐỊNH
CHUYỆN VỐN đang xảy ra trong y tế chắc chắn có khả năng sẽ xuất hiện trong ngày càng nhiều lĩnh vực. Phát minh chủ chốt cảm biến sinh trắc mà người ta có thể đeo trên hoặc trong người và chuyển các quá trình sinh học thành các thông tin điện tử mà máy tính có thể lưu trữ và phân tích. Khi có đủ dữ liệu sinh trắc và khả năng tính toán, các hệ thống xử lý dữ liệu bên ngoài có thể giải mã mọi ham muốn, quyết định và ý kiến của bạn. Chúng có thể biết chính xác bạn là ai.
Hầu hết mọi người không biết rõ về bản thân cho lắm. Tới năm 21 tuổi, cuối cùng tôi đã nhận thức rõ mình là người đồng tính, sau nhiều năm sống phủ nhận hiện thực ấy. Điều này không lấy gì là khác thường. Nhiều đàn ông đồng tính mất trọn những năm thiếu niên phân vân về xu hướng tình dục của mình. Giờ thử hình dung tình huống năm 2050, khi một thuật toán có thể nói cho bất cứ thiếu niên nào vị trí chính xác của mình trên phổ cong / thẳng (và thậm chí là mức độ “linh động” của vị trí đó nữa). Có lẽ thuật toán sẽ cho bạn xem ảnh hay video của những nam giới và nữ giới hấp dẫn, theo dõi chuyển động của mắt, huyết áp và hoạt động não bộ của bạn; trong vòng năm phút, nó sẽ hiện một con số trên thang Kinsey. Một phát minh như vậy hẳn đã cứu tôi khỏi nhiều năm vật vã. Có lẽ cá nhân bạn sẽ không muốn thực hiện một bài kiểm tra kiểu đó; nhưng rồi có thể lúc nào đó bạn sẽ thấy mình đang ở cùng một nhóm bạn trong buổi tiệc sinh nhật chán ngắt của Michelle và ai đó gợi ý là cả nhóm lần lượt tự kiểm tra trên thuật toán mới rất ngầu này (mọi người thì đứng quanh xem kết quả và bình luận). Bạn cứ thế bỏ đi mà được ư?
Ngay cả nếu bạn bỏ đi thật và ngay cả khi bạn cứ chạy trốn bản thân và bạn bè, bạn sẽ không thể trốn được Amazon, Alibaba hay cảnh sát mật. Khi bạn lướt web, xem YouTube hay đọc tin tức trên mạng xã hội, các thuật toán sẽ âm thầm giám sát bạn, phần tích bạn và thông báo vời hãng Coca-Cola rằng nếu họ muốn bán cho bạn một loại nước giải khát có ga nào đó, họ nên dùng quảng cáo có nam giới cởi trần hơn là nữ giới cởi trần. Bạn thậm chí sẽ không biết. Nhưng chúng sẽ biết và những thông tin như vậy đáng giá hàng tỷ đô.
Thế nhưng, có khi người ta lại sẵn sàng chia sẻ thông tin của mình để đổi lại những gợi ý tốt hơn và cuối cùng là để thuật toán quyết định cho họ. Hãy bắt đầu bằng những thứ đơn giản, ví dụ như ngồi xuống cùng bạn bè và cùng nhau có một buổi tối ấm cúng trước TV. Năm mươi năm trước, bạn có rất ít lựa chọn về thứ có thể xem; nhưng ngày nay, với sự phát triển nhanh chóng của các dịch vụ xem theo yêu cầu, bạn có hàng nghìn tên phim để chọn. Đi đến đồng thuận có thể khá khó vì bạn thì thích phim viễn tưởng ly kỳ, Jack khoái phim hài lãng mạn, còn Jill thì chọn phim Pháp nghệ thuật. Cả hội có thể sẽ thỏa hiệp và kết thúc bằng việc xem một bộ phim hạng B xoàng nào đó để rồi đều thất vọng.
Thuật toán có thể giúp. Bạn có thể nói cho nó biết những phim từng người trong các bạn đã xem và thích; dựa vào cơ sở dữ liệu thống kê khổng lồ của mình, thuật toán sau đó có thể tìm ra một bộ phim phù hợp hoàn hảo cho cả nhóm. Không may là, một thuật toán còn thô sơ như vậy có thể dễ dàng bị nhầm hướng, đặc biệt vì tự mô tả là một thước đo đặc biệt thiếu tin cậy khi bàn về sở thích thực sự của nhiều người. Thường thì khi nghe nhiều người ca tụng một bộ phim như một kiệt tác, chúng ta sẽ cảm thấy mình nhất định phải xem và dù giữa chừng chán ngắt đến buồn ngủ, chúng ta cũng không muốn mình bị coi như những kẻ chả hiểu biết gì về nghệ thuật, thê là chúng ta nói với tất cả mọi người rằng đó là một trải nghiệm tuyệt vời.
Tuy nhiên, các vấn đề như vậy có thể được giải quyết nếu chúng ta cho phép thuật toán thu thập các dữ liệu thời gian thực về chúng ta khi chúng ta đang thật sự xem phim, thay vì chỉ dựa vào những lời tự thuật rất mập mờ của chính chúng ta. Với những người mới bắt đầu, thuật toán có thể theo dõi những phim chúng ta đã xem hết và những phim chúng ta ngừng xem giữa chừng. Ngay cả khi chúng ta nói với cả thế giới rằng Cuốn theo chiều gió là bộ phim hay nhất từng được sản xuất, thì thuật toán cũng sẽ biết chúng ta chưa bao giờ xem quá nửa tiếng đầu và chưa bao giờ thấy Atlanta chìm trong biển lửa.
Thế nhưng thuật toán có thể còn tiến xa hơn nữa. Các kỹ sư hiện đang phát triển phần mềm có thể phát hiện các cảm xúc của con người dựa trên cử động của mắt và các cơ mặt. Người ta gắn thêm một máy quay chất lượng vào ti vi và một phần mềm như vậy sẽ biết cảnh nào làm ta cười, cảnh nào làm ta buồn và cảnh nào làm ta chán. Tiếp theo, nối kết thuật toán với các cảm biến sinh trắc và nó sẽ biết mỗi khung hình ảnh hưởng đến nhịp tim, huyết áp và hoạt động não bộ của ta ra sao. Khi ta xem Pulp Fiction của Tarantino chẳng hạn, thuật toán sẽ nhận thấy cảnh hiếp dâm khiến ta thấy thoáng gợn chút hứng tình gần như không thể nhận ra, cảnh Vincent thình lình bắn vào mặt Marvin làm ta bật cười một cách tội lỗi và mặc dù không hiểu câu đùa về “cái bánh mì kẹp Kahuna bự”, ta vẫn cười để trông mình không bị ngu. Khi ép mình cười, co thể bạn sử dụng những mạch điện não và cơ khác với khi bạn thật sự buồn cười. Con người thường không nhận thấy sự khác biệt. Nhưng một cảm biến sinh trắc thì có thể.
Từ “television”, tức tivi, bắt nguồn từ tele trong tiếng Hy Lạp nghĩa là “xa” và visio trong tiếng Latin nghĩa là “nhìn”. Ban đầu, nó đưọc tạo ra như một phương tiện cho phép chúng ta nhìn từ xa. Nhưng chẳng mấy chốc nó sẽ cho phép chúng ta bị nhìn thấy từ xa. Như George Orwell đã hình dung trong cuốn 1984, chiếc TV có thể xem chúng ta trong khi chúng ta xem nó. Sau khi xem hết những bộ phim của Tarantino, chúng ta có thể sẽ quên gần hết. Nhưng Netflix hay Amazon hay bất cứ ai sỏ hữu thuật toán TV sẽ biết kiểu tính cách của chúng ta và cách khiến cảm xúc của chúng ta bùng nổ. Những dữ liệu như vậy có thể giúp Netflix và Amazon chọn phim cho chúng ta với sự chính xác phi thường, nhưng chúng cũng có thể cho phép họ đưa ra những quyết định quan trọng nhất cuộc đời hộ chúng ta, như học cái gì, làm ở đâu và cưới ai chẳng hạn.
Dĩ nhiên, Amazon sẽ không phải lúc nào cũng đúng. Điều đó là không thể. Các thuật toán sẽ liên tục mắc lỗi do dữ liệu không đủ, lập trình sai, lẫn lộn các mục tiêu và bản chất rối ren của cuộc đời. Nhưng Amazon đâu cần phải hoàn hảo. Nó chỉ cần giỏi hơn một người trung bình thôi. Và điều đó thì không quá khó vì hầu hết mọi người không hiểu rõ bản thân cho lắm và hầu hết thường phạm nhũng sai lầm khủng khiếp trong các quyết định quan trọng nhất cuộc đời. Con người cũng chịu cảnh dữ liệu thiếu, lập trình sai (do di truyền và văn hóa), lẫn lộn các vấn đề và cuộc sống rối ren còn nhiều hơn cả các thuật toán.
Bạn có thể liệt kê nhiều vấn đề xoay quanh các thuật toán và kết luận rằng con người sẽ không bao giờ tin vào chúng. Nhưng điều đó cũng hơi giống việc liệt kê tất cả các hạn chế của nền dân chủ và kết luận rằng không một người khôn ngoan nào sẽ lựa chọn ủng hộ một hệ thống như vậy. Winston Churchill đã nói một câu nổi tiếng rằng dân chủ là hệ thống chính trị tệ nhất thế giới, trừ tất cả những hệ thống còn lại. Đúng hay sai thì con người có thể sẽ đi đến kết luận tương tự về các thuật toán Big Data: chúng còn nhiều sai sót, nhưng chúng ta không có lựa chọn nào khá hơn.
Khi các nhà khoa học hiểu sâu hơn cách con người ra quyết định, sự cám dỗ của việc dựa vào các thuật toán hẳn sẽ ngày càng lớn. “Bẻ khóa” quá trình ra quyết định của con người không chỉ khiến các thuật toán Big Data trở nên đáng tin cậy hơn mà đồng thời khiến cảm xúc con người trở nên thiếu tin cậy hơn. Khi các chính phủ và các tập đoàn thành công trong việc “bẻ khóa” hệ thống vận hành của con người, chúng ta sẽ bị phơi ra trước một loạt dồn dập, liên tiếp các hình thức thao túng, quảng cáo và tuyên truyền được định hướng rất chính xác. Việc điều khiển ý kiến và cảm xúc của chúng ta sẽ trở nên dễ dàng đến mức chúng ta sẽ buộc phải dựa vào thuật toán hệt như cách một phi công đột nhiên bị chóng mặt, phải lờ đi những gì các giác quan của anh ta đang mách bảo và đặt toàn bộ niềm tin vào máy móc.
Tại một số quốc gia và trong một số tình huống, con người có thể không được lựa chọn chút nào và sẽ buộc phải tuân theo các quyết định của các thuật toán Big Data. Nhưng ngay cả trong các xã hội được cho là tự do, các thuật toán cũng có thể sẽ giành được quyền lực bởi qua các lần trải nghiệm, chúng ta sẽ học được cách tin vào chúng trong ngày càng nhiều vấn đề và dần mất đi khả năng tự quyết định cho bản thân. Cứ nghĩ về cách mà chỉ trong hai thập kỷ qua, hàng tỷ người đã đi đến chỗ giao phó cho thuật toán tìm kiếm Google một trong những nhiệm vụ quan trọng nhất: tìm kiếm thông tin liên quan và đáng tin cậy. Chúng ta không còn tìm thông tin nữa. Thay vào đó, chúng ta dùng Google. Và khi chúng ta ngày càng phụ thuộc vào Google dể tìm câu trả lời thì khả năng tự tìm kiếm thông tin của chúng ta sẽ ngày càng thu hẹp. Đến ngày nay, “sự thật” được định nghĩa bằng các kết quả hàng đầu của mỗi lần tìm kiếm Google.
Điều này cũng đang diễn ra với các năng lực thể chất, ví dụ như định hướng trong không gian. Người ta nhờ Google chi đường cho họ. Khi họ đến một điểm giao cắt, cảm giác bản năng có thể bảo họ “rẽ trái” nhưng Google Maps lại bảo “rẽ phải”. Đầu tiên, họ nghe theo mình, rẽ trái để rồi dính ngay một vụ kẹt xe và lỡ một buổi hẹn quan trọng. Lần sau, họ nghe lời Google, rẽ phải và đến nơi đúng giờ. Họ học được từ các trải nghiệm là nên tin Google. Sau một, hai năm, họ mù quáng dựa vào bất cứ thứ gì Google Maps nói với họ và nếu điện thoại thông minh của họ hỏng, họ hoàn toàn ngơ ngác. Vào tháng Ba năm 2012, ba du khách Nhật Bản ở Úc quyết định đi một chuyến trong ngày đến một hòn đảo nhỏ ngoài khơi để rồi lái thẳng xe xuống Thái Bình Dương. Người lái xe, cô Yuzu Nucla 21 tuổi, sau đó có nói là cô chỉ đi theo chỉ dẫn của GPS và “nó bảo là chúng tôi lái được ở dưới đó. Nó cứ nói là nó sẽ dẫn chúng tôi đến một con đường. Chúng tôi bị mắc kẹt.” Trong vài vụ việc tương tự, nhiều người đã lái xuống hồ hay rơi khỏi một cây cầu bị hỏng vì nghe theo chỉ dẫn GPS. Khả năng định hướng cũng như một loại cơ bắp, không dùng đến sẽ mất. Khả năng chọn bạn đời hay chọn nghề nghiệp cũng vậy.
Mỗi năm hàng triệu người trẻ tuổi cần phải quyết định học gì ở đại học. Đây là một quyết định rất quan trọng và khó khăn. Bạn chịu áp lực từ bố mẹ, bạn bè và thầy cô, ai cũng có mối quan tâm và ý kiến riêng. Bạn cũng có những nỗi sợ và mong ước riêng phải xử lý. Khả năng suy xét của bạn bị các bộ phim bom tấn của Hollywood, những cuốn tiểu thuyết vô giá trị, các chiến dịch quảng cáo tinh vi phủ bóng và điều khiển. Việc đưa ra một quyết định khôn ngoan là đặc biệt khó khăn vì bạn không thực sự biết các nghề nghiệp khác nhau cần những điều gì để thành công và bạn không có một hình dung thực tế về sở trường cũng như sở đoản của chính mình. Cần gì để thành công với tư cách một luật sư? Làm sao để làm việc dưới áp lực? Mình có phải là một người làm việc nhóm tốt không?
Một sinh viên có thể bắt đầu học luật vì cô ấy hiểu không chính xác các kỹ năng của mình và có một quan niệm thậm chí còn méo mó hơn về chuyện làm luật sư thực sự cần những gì (bạn không đưa ra những bài phát biểu kịch tính và hét “Phản đối, thưa quý tòa!” suốt ngày đâu). Trong khi đó, bạn cô quyết định hiện thực hóa một giấc mơ thời thơ ấu và học ballet chuyên nghiệp, dù không có cấu trúc xương phù hợp hay tính kỷ luật cần thiết. Nhiều năm sau, cả hai cực kỳ hối tiếc về những lựa chọn của mình. Trong tương lai, chúng ta sẽ có thể dựa vào Google để đưa ra các quyết định như vậy cho mình. Google có thể nói cho tôi biết tôi sẽ chỉ phí thời gian trong trường luật và trường ballet nhưng có thể trở thành một nhà tâm lý học hay một thợ sửa ống nước xuất sắc (và cực kỳ hạnh phúc).
Một khi AI đưa ra các quyết định tốt hơn chúng ta về nghề nghiệp và có thể là cả các mối quan hệ, quan niệm của chúng ta về nhân tính và về cuộc đời sẽ phải thay đổi. Con người đã quen nghĩ về cuộc đời như một vở kịch của việc ra quyết định. Nền dân chủ tự do và chủ nghĩa tư bản thị trường tự do xem mỗi cá nhân như một thực thể tự quyết liên tục đưa ra lựa chọn về thế giới. Các tác phẩm nghệ thuật, dù là kịch Shakespeare, tiểu thuyết của Jane Austen hay các bộ phim hài rẻ tiền của Hollywood, thường xoay quanh nhân vật chính phải đưa ra những quyết định đặc biệt quan trọng. Tồn tại hay không tồn tại? Nghe lời vợ và giết vua Duncan hay nghe theo lương tâm mình và tha cho hắn? Cưới ngài Collins hay ngài Darcy? Tương tự, thần học Cơ Đốc và Hồi giáo cũng tập trung vào sự kịch tính của việc ra quyết định, lý luận rằng sự cứu rỗi vĩnh hằng phụ thuộc vào việc đưa ra lựa chọn đúng đắn.
Điều gì sẽ xảy ra với quan niệm sống này khi ta ngày càng dựa vào AI để ra quyết định? Hiện tại, ta phó thác Netflix để gợi ý phim cho ta và Google Maps để chọn rẽ phải hay rẽ trái. Nhưng một khi ta bắt đầu dựa vào AI để quyết định học cái gì, làm ở đâu và cưới ai, cuộc đời con người sẽ thôi không còn là một vở kịch của việc ra quyết định nữa. Các cuộc bầu cử dân chủ và các thị trường tự do sẽ không còn nhiều ý nghĩa. Hầu hết các tôn giáo và các tác phẩm nghệ thuật cũng thế. Hãy tưởng tượng Anna Karenina rút điện thoại thông minh của mình ra và hỏi thuật toán Facebook mình có nên tiếp tục làm vợ Karenin hay chạy trốn với bá tước Vronsky bảnh bao. Hay hình dung vở kịch Shakespeare yêu thích của bạn với tất cả các quyết định tối quan trọng được đưa ra bởi thuật toán Google. Hamlet và Macbeth sẽ có những cuộc đời dễ chịu hơn rất nhiều, nhưng kiểu cuộc đời đó là gì vậy? Chúng ta có mô hình nào để hiểu chúng không?
Khi quyền hạn chuyển từ người sang thuật toán, chúng ta có lẽ không còn nhìn thế giới như một sân chơi của các cá nhân tự quyết đang vật lộn để đưa ra những lựa chọn đúng đắn nữa. Thay vào đó, chúng ta có thể nhìn toàn bộ vũ trụ như một dòng chảy dữ liệu, xem các sinh vật chẳng hơn gì các thuật toán sinh hóa và tin rằng công việc mang tầm vóc vũ trụ của loài người là tạo ra một hệ thống xử lý dữ liệu bao trùm mọi thứ rồi hòa mình vào trong đó. Ngày nay, chúng ta đang trở thành các con chip nhỏ xíu trong một hệ thống xử lý dữ liệu khổng lồ mà chẳng ai thực sự hiểu. Mỗi ngày, tôi hấp thu vô số bit dữ liệu thông qua các email, các dòng tweet và các bài viết; tôi xử lý dữ liệu rồi lại truyền các bit mới thông qua nhiều email, tweet và các bài viết khác nữa. Tôi không thực sự biết mình khớp vào đâu trong hoạch định vĩ đại của vạn vật này, hay những bit dữ liệu của tôi kết nối với những bit do hàng tỷ người và máy tính khác sản sinh ra như thế nào. Tôi không có thời gian tìm hiểu vì tôi quá bận rộn với việc trả lời hết những email này.
—ooOoo—
CỖ XE TRIẾT HỌC
NGƯỜI TA có thể lý luận rằng các thuật toán sẽ không bao giờ đưa ra các quyết định quan trọng giúp chúng ta vì các quyết định quan trọng thường cho thấy một chiều hướng đạo đức mà các thuật toán thì không hiểu đạo đức. Thế nhưng không có lý do nào để cho rằng các thuật toán sẽ không thể vượt mặt được một người trung bình ngay cả trong vấn đề này. Ngày nay, khi các thiết bị như điện thoại thông minh và phương tiện tự hành đưa ra các quyết định vốn từng là độc quyền của con người những người tạo ra chúng đang bắt đầu vật lộn với những vấn đề đạo đức tương tự đã từng làm đau đầu con người suốt hàng nghìn năm.
Chẳng hạn, giả sử hai đứa trẻ đang đuổi theo một quả bóng và nhảy đến ngay trước mũi một chiếc xe tự hành. Dựa vào những tính toán nhanh như chớp của mình, thuật toán lái chiếc xe kết luận cách duy nhất để tránh đâm vào hai đứa trẻ là ngoặt sang làn ngược chiều và liều va chạm với một chiếc xe tải đang đi đến. Thuật toán tính ra rằng trong trường hợp như vậy, 70% khả năng người chủ xe, đang say ngủ ở ghế sau, sẽ bị chết. Thuật toán nên làm gì?
Các triết gia đã tranh cãi về các “vấn đề xe goòng” kiểu vậy hàng nghìn năm nay (chúng được gọi như vậy vì các ví dụ sách vở trong các cuộc tranh luận triết học hiện đại nói về một cái xe goòng đang chạy trên đường ray thay vì một chiếc xe tự hành). Đến bây giờ, các tranh cãi như vậy có tác động ít ỏi đến đáng xấu hổ tới hành vi thực tế của con người vì trong các thời điểm khủng hoảng, con người thường quên các quan niệm triết học của mình và chỉ đi theo cảm xúc và trực giác.
Một trong những thí nghiệm gây sốc nhất trong lịch sử khoa học xã hội đã được thực hiện vào tháng Mười hai năm 1970 trên một nhóm sinh viên ở trường dòng Thần học Princeton đang được đào tạo để trở thành các mục sư trong Giáo hội Tin Lành Trưởng lão. Mỗi sinh viên được yêu cầu phải đi nhanh đến một giảng đường ở xa để có bài nói chuyện về dụ ngôn Người Sa-ma-ri nhân đức; câu chuyện kể về một người Do Thái đi từ Jerusalem đến Jericho bị bọn cướp lột sạch đồ và đánh đập tệ hại rồi để mặc anh ta sống dở chết dở bên đường. Một lúc sau, một thầy tư tế và một người thuộc chi phái Levi đi ngang qua, nhưng cả hai đều phớt lờ người đàn ông nọ. Ngược lại, một người Sa-ma-ri, thành viên của một giáo phái bị người Do Thái cực kỳ coi khinh, đã dừng lại khi nhìn thấy nạn nhân, chăm sóc và cứu sống anh ta. Bài học đạo đức của dụ ngôn này là phẩm cách của con người cần được đánh giá bằng hành vi thực của họ chứ không phải tôn giáo hay quan điểm triết học của họ.
Các sinh viên trẻ tuổi hăng hái vội vã đi đến giảng đường, vừa đi vừa suy ngẫm xem làm thế nào để giải thích bài học đạo đức của câu chuyện dụ ngôn tốt hơn cả. Nhưng những người làm thí nghiệm đã sắp xếp để trên đường đi của họ xuất hiện một người ăn mặc rách rưới ngồi sụp xuống nơi bậc cửa, mặt cúi gằm và mắt nhắm nghiền. Mỗi khi có một sinh viên không để ý gì đến “nạn nhân” băng qua, “nạn nhân” lại ho và rên rỉ đầy vẻ đáng thương. Hầu hết các sinh viên thậm chí còn không dừng lại để hỏi xem người đàn ông có chuyện gì, nói gì đến việc đề nghị giúp đỡ. Áp lực cảm xúc do việc cần phải đi nhanh đến giảng đường đã đè bẹp nghĩa vụ đạo đức cần giúp đỡ người lạ đang gặp khó khăn.
Cảm xúc con người đè bẹp lý thuyết triết học trong vô số tình huống khác. Điều này biến lịch sử đạo đức và triết học của thế giới thành một câu chuyện khá thất vọng về các lý tưởng tuyệt vời và các hành vi không được lý tưởng cho lắm. Có bao nhiêu tín hữu Cơ Đốc thật sự chìa má bên kia, có bao nhiêu Phật tử thật sự vượt lên những ám ảnh vị kỷ, và có bao nhiêu người Do Thái thật sự yêu hàng xóm của mình như chính bản thân? Đấy chỉ là cách chọn lọc tự nhiên đã định hình Homo sapiens. Như mọi động vật có vú khác, Homo sapiens sử dụng cảm xúc để nhanh chóng đưa ra các quyết định một mất một còn. Chúng ta thừa hưởng con giận, nỗi sợ và ham muốn của mình từ hàng triệu tổ tiên, tất cả đều đã vượt qua những bài kiểm tra quản lý chất lượng khắc nghiệt nhất của chọn lọc tự nhiên.
Không may là những gì tốt cho sinh tồn và sinh sản tại thảo nguyên châu Phi một triệu năm trước không nhất định tạo nên hành vi có trách nhiệm trên đường cao tốc thế kỷ 21. Những người lái xe phân tâm, cáu kỉnh và sốt ruột làm chết hơn rnột triệu người trong các vụ tai nạn giao thông mỗi năm. Chúng ta có thể đưa tất cả các triết gia, các nhà tiên tri và mục sư đến rao giảng đạo đức cho những người lái xe này; nhưng trên đường, các cảm xúc của loài động vật có vú và các bản năng nơi đồng cỏ vẫn giành quyền kiểm soát. Do đó, các sinh viên trường dòng trong lúc vội vã sẽ phớt lờ những người đang gặp nạn và các lái xe trong cơn bấn loạn vẫn sẽ cán qua những khách bộ hành không may.
Sự cách biệt như vậy giữa trường dòng và đường cao tốc là một trong những vấn đề thực tế lớn nhất của đạo đức học. Immanuel Kant, John Stuart Mill và John Rawls có thể ngồi trong một giảng đường đại học ấm cúng nào đó và bàn luận các vấn đề đạo đức lý thuyết từ ngày này sang ngày khác, nhưng liệu các kết luận của họ có thật sự được các tài xế đang căng hết cả óc áp dụng trong một tình huống khẩn cấp chỉ vài phần giây? Có lẽ Michael Schumacher, nhà vô địch đua xe Công thức Một, đôi khi được tôn vinh là người lái xe giỏi nhất lịch sử, có khả năng nghĩ về triết học trong khi đua xe, nhưng hầu hết chúng ta đâu phải Schumacher.
Tuy nhiên, các thuật toán máy tính chưa bao giờ bị chọn lọc tự nhiên nhào nặn; chúng cũng không có cảm xúc hay trực giác. Do đó, trong những khoảnh khắc ngàn cân treo sợi tóc, chúng có thể đi theo các chỉ dẫn đạo đức tốt hơn con người rất nhiều, miễn là chúng ta tìm được cách mã hóa đạo đức thành những con số và thống kê chính xác. Nếu ta có thể dạy Kant, Mill và Rawls viết mã, họ có thể lập trình cho chiếc xe tự hành trong căn phòng thí nghiệm ấm cúng của họ; và chắc chắn, chiếc xe sẽ nghe theo những lời răn dạy của họ trên đường cao tốc Trên thực tế, mỗi chiếc xe do Michael Schumacher và Immanuel Kant lái sẽ nhập làm một.
Nếu bạn lập trình để một chiếc xe tự hành dừng lại và giúp những người lạ đang gặp hoạn nạn, nó sẽ làm như vậy bất kể chuyện gì xảy ra (dĩ nhiên, trừ phi bạn đưa vào một mệnh đề ngoại lệ cho các tình huống nguy cấp). Tương tự, nếu chiếc xe tự hành của bạn được lập trình để bẻ lái vào làn ngược chiều nhằm tránh hai đứa trẻ xuất hiện trên đường đi của nó, bạn có thể cược cả mạng sống của mình rằng đấy chính xác là điều chiếc xe sẽ làm. Có nghĩa là khi thiết kế những chiếc xe tự hành, hãng Toyota hay Tesla sẽ biến một vấn đề lý thuyết trong triết học đạo đức thành một vấn đề thực tiễn.
Đương nhiên, các thuật toán triết học sẽ không bao giờ hoàn hảo. Lỗi vẫn sẽ xảy ra, dẫn đến thương tật, tử vong và các vụ kiện cực kỳ phức tạp (Lần đầu tiên trong lịch sử, bạn có thể kiện một triết gia vì những hậu quả đáng tiếc xuất phát từ lý thuyết của họ; đó là vì lần đầu tiên, bạn có thể chứng minh một liên hệ nhân quả trực tiếp giữa các ý tưởng triết học và các sự kiện đời thực.) Tuy nhiên, để thay thế những tài xế-con người, các thuật toán không cần phải hoàn hảo. Chúng chỉ cần giỏi hơn con người mà thôi. Với việc các tài xế-con người cướp đi hơn một triệu mạng sống mỗi năm thì chuyện đó không phải quá khó. Xét cho cùng, bạn muốn một cậu choai choai say rượu hay nhóm Schumacher-Kant lái chiếc xe bên cạnh mình hơn?
Cùng logic này có thể áp dụng không chỉ trong lái xe mà trong rất nhiều tình huống khác nữa. Chẳng hạn như xin việc. Trong thế kỷ 21, việc các thuật toán quyết định thuê ai đó làm một công việc nhất định sẽ ngày càng phổ biến. Chúng ta không thể dựa vào máy móc để đặt ra các tiêu chuẩn đạo đức có liên quan; con người vẫn sẽ phải làm điều đó. Nhưng một khi chúng ta đã quyết định một chuẩn mực đạo đức trong thị trường lao động, không phân biệt đối xử với người da màu và phụ nữ chẳng hạn, chúng ta có thể dựa vào máy móc để thực hiện và duy trì tiêu chuẩn này tốt hơn con người.
Một người quản lý có thể biết và thậm chí đồng ý rằng phân biệt đối xử với người da màu và phụ nữ là vô đạo đức; nhưng khi một phụ nữ da màu xin việc, người đó sẽ vô thức phân biệt đối xử với cô ấy và quyết định không tuyển cô. Nếu ta để cho một máy tính đánh giá các hồ sơ xin việc và lập trình để nó hoàn toàn phớt lờ yếu tố chủng tộc và giới tính, chúng ta có thể chắc chắn là máy tính sẽ thực sự phớt lờ các yếu tố này vì máy tính không có vô thức. Dĩ nhiên, viết code để đánh giá các hồ sơ xin việc sẻ không dễ dàng gì và luôn có nguy cơ các kỹ sư sẽ bằng cách náo đó lập trình các thiên kiến vô thức của mình vào phần mềm. Thế nhưng, một khi ta đã phát hiện các lỗi như vậy, có lẽ việc sửa lỗi cho phần mềm sẽ dễ hơn nhiều việc bắt con người từ bỏ các định kiến chủng tộc và ghét phụ nữ.
Chúng ta đã thấy sự trỗi dậy của trí tuệ nhân tạo có thể đẩy phần lớn con người ra khỏi thị trường lao động, bao gồm các tài xế và cảnh sát giao thông (vì khi những người hay gây rối được thay thế bằng các thuật toán biết vâng lời thì cảnh sát giao thông cũng trở nên thừa thãi). Tuy nhiên, những cơ hội mới cho các triết gia có thể sẽ mở ra bởi như cầu về kỹ năng của họ, vốn từ trước đến nay không có mấy giá trị thị trường, sẽ đột nhiên rất lớn. Thế nên nếu bạn muốn học thứ gì đó sẽ đảm bảo cho một công việc tốt trong tương lai, có lẽ triết học sẽ không phải là một canh bạc tồi.
Dĩ nhiên, các triết gia hiếm khi đồng thuận về đường hướng hành động. Rất ít vấn đề xe goòng được giải quyết mà làm hài lòng tất cả các triết gia và các nhà tư tưởng theo trường phái hệ quả luận như John Stuart Mill (đánh giá hành động dựa vào hậu quả) có các ý tưởng rất khác với các nhà nghĩa vụ luận như Immanuel Kant (đánh giá hành động dựa trên các quy luật tuyệt đối). Liệu hãng Tesla có thực sự phải chọn một lập trường trong những vấn đề nan giải như thế để sản xuất ra một chiếc xe không?
À, có lẽ Tesla chỉ cần để mặc thị trường thôi. Tesla có thể sản xuất hai dòng xe tự hành: chiếc Tesla Vị tha và chiếc Tesla Vị kỷ. Trong trường hợp khẩn cấp, chiếc Vị tha sẽ hy sinh chủ nhân vì lợi ích lớn hơn, trong khi chiếc Vị kỷ sẽ làm mọi điều trong khả năng của mình để cứu chủ nhân, ngay cả nếu điều đó có nghĩa là giết hại đứa trẻ. Khách hàng sau đó sẽ có thể mua chiếc xe phù hợp với quan điểm triết học ưa thích của mình. Nếu có nhiều người mua chiếc Tesla Vị kỷ hơn thì bạn cũng đâu thể đổ lỗi cho Tesla được. Xét cho cùng, khách hàng luôn đúng.
Đấy không phải là chuyện đùa. Trong một cuộc nghiên cứu tiên phong năm 2015, những người tham gia được đưa ra một tình huống giả định về một chiếc xe tự hành chuẩn bị cán qua vài khách bộ hành. Hầu hết nói rằng trong trường hợp đó, chiếc xe nên cứu người đi bộ ngay cả khi cái giá phải trả là mạng sống của chủ xe. Nhưng khi họ được hỏi liệu bản thân có mua một chiếc xe được lập trình để hy sinh chủ nhân cho mục đích cao cả hơn không, hầu hết đều nói là không. Cho bản thân thì họ vẫn thích chiếc Tesla Vị kỷ hơn.
Thử tưởng tượng tình huống này: bạn vừa mua một chiếc xe mới, nhưng trước khi có thể bắt đầu sử dụng, bạn phải mở mục cài đặt và đánh dấu chọn vài mục. Trong trường hợp tai nạn, bạn muốn chiếc xe hy sinh tính mạng của bạn hay giết cả một gia đình ở trên xe kia? Đấy có phải là một lựa chọn mà bạn muốn đưa ra không? Hãy nghĩ đến những lý lẽ bạn sắp đưa ra cho chồng về việc đánh dấu mục nào.
Thế nên có thể chính phủ sẽ can thiệp để điều tiết thị trường và đưa ra một quy tắc đạo đức bắt buộc với mọi chiếc xe tự hành. Một số nhà làm luật không nghi ngờ gì nữa sẽ cực kỳ phấn khích trước cơ hội làm ra những điều luật luôn luôn được tuân thủ đến từng chữ. Số khác sẽ hoảng hồn trước một trách nhiệm chưa từng có và tuyệt đối đến thế. Xét cho cùng, xuyên suốt lịch sử, các hạn chế trong quá trình thực thi luật trên thực tế đã mang lại một sự kiểm soát đáng mừng đối với các thiên kiến, sai lầm và “lạm quyền” của những nhà làm luật. Các luật chống đồng tính và báng bổ chỉ được thực thi phần nào là một điều cực kỳ may mắn. Chúng ta có thực sự muốn một hệ thống trong đó các quyết định của những chính trị gia dễ mắc sai lầm trở nên bất khả lay chuyển như trọng lực không?
—ooOoo—
NHỮNG NỀN ĐỘC TÀI SỐ
AI THƯỜNG làm con người sợ hãi vì họ không tin AI sẽ mãi tuân phục họ. Chúng ta đã xem quá nhiều phim khoa học viễn tưởng về những con robot nổi dậy chống lại những chủ nhân của chúng, chạy loạn trên đường phố và giết hại mọi người. Thế nhưng vấn đề thực sự với robot lại hoàn toàn ngược lại. Chúng ta nên sợ chúng vì có lẽ chúng sẽ luôn tuân phục chủ nhân và không bao giờ nổi loạn.
Tuân phục mù quáng thì chẳng có gì sai, đương nhiên, miễn là những con robot phục vụ những chủ nhân vô hại. Ngay cả trong chiến tranh, việc phụ thuộc vào những con robot sát thủ có thể đảm bảo rằng lần đầu tiên trong lịch sử, các chiến luật sẽ thực sự được tuân thủ trên chiến trường. Người chiến sĩ đôi khi bị cảm xúc dẫn dắt mà vi phạm chiến luật như giết người, cướp của và hãm hiếp. Chúng ta thường liên hệ cảm xúc với lòng trắc ẩn, tình yêu và sự đồng cảm; nhưng trong thời chiến, các cảm xúc lấn át thường xuyên hơn cả lại chỉ là sợ hãi, thù hận và tàn bạo. Vì robot không có cảm xúc, ta có thể tin rằng chúng sẽ luôn trung thành với các từ ngữ khô khan của điều lệnh quân đội và không bao giờ bị những nỗi sợ hãi cũng như thù hằn cá nhân làm lung lạc.
Vào ngày 16 tháng Ba năm 1968, một toán lính Mỹ trở nên mất kiểm soát hoàn toàn ở làng Mỹ Lai thuộc miền Nam Việt Nam và giết hại khoảng bốn trăm dân thường. Tội ác chiến tranh này bắt nguồn từ khởi xướng cục bộ của những lính đã tham gia cuộc chiến tranh du kích trong rừng suốt vài tháng. Nó không phục vụ bất cứ một mục đích chiến thuật nào và vi phạm cả luật pháp cũng như chính sách quân sự của Mỹ. Nếu nước Mỹ khi đó có robot sát thủ, cuộc thảm sát Mỹ Lai có thể đã không xảy ra.
Tuy nhiên, trước khi lao vào phát triển và triển khai robot sát thủ, chúng ta cần nhắc nhở mình rằng robot luôn phản ánh và khuếch đại chất lượng mã nguồn của chúng. Nếu mã nguồn là kiềm chế và ôn hòa, robot có lẽ sẽ là một tiến bộ cực lớn so với các binh lính người bình thường. Nhưng nếu mã nguồn là tàn nhẫn và độc ác, kết quả sẽ là thảm họa. Vấn đề thực sự với robot không phải là trí tuệ nhân tạo của chúng mà là sự ngu xuẩn và độc ác tự nhiên của những chủ nhân của chúng.
Vào tháng Bảy năm 1995, lực lượng người Serb ở Bosnia đã sát hại hơn 8.000 người Hồi giáo quanh thành phố Srebrenica. Không như cuộc thảm sát vô tổ chức ở Mỹ Lai, cuộc giết chóc ở Srebrenica là một chiến dịch kéo dài và được tổ chức kỹ lưỡng, phản ánh chính sách của người Serb ở Bosnia nhằm “thanh lọc sắc tộc” người Hồi giáo ở Bosnia. Nếu người Serb ở Bosnia có robot sát thủ vào năm 1995, cuộc thảm sát hẳn đã tồi tệ hơn nhiều. Không con robot nào sẽ chần chừ, dù chỉ một giây, khi thực hiện bất cứ mệnh lệnh mà nó nhận được và không con robot nào tha mạng cho một đứa trẻ Hồi giáo vì những cảm giác như “thương cảm”, “ghét bỏ” hay đơn giản là “thờ ơ”.
Một tên độc tài tàn bạo nắm trong tay những con robot sát thủ như thế sẽ không bao giờ phải sợ binh lính quay súng chống lại mình, dù mệnh lệnh của hắn có tàn ác và điên cuồng đến cỡ nào. Một binh đoàn robot có lẽ đã bóp chết cuộc Cách mạng Pháp năm 1789 từ trong trứng nước; và nếu vào năm 2011, Hosni Mubarak có một binh đoàn robot giết chóc thì ông ta đã có thể thả chúng ra cắn xé nhân dân mà không sợ cảnh đào ngũ. Tương tự, một chính phủ đế quốc dựa vào một đội quân robot có thể tiến hành những cuộc chiến không được lòng dân mà chẳng phải lo lũ robot sẽ mất động lực hay gia đình chúng sẽ biểu tình phản đối. Nếu Mỹ có robot sát thủ trong chiến tranh Việt Nam, thì chính cuộc chiến có thể đã kéo dài thêm nhiều năm nữa vì chính phủ Mỹ sẽ không phải lo các binh sĩ mất tinh thần, các cuộc biểu tình phản chiến khổng lồ hay phong trào “robot cựu chiến binh phản chiến”. (Một số công dân Mỹ có thể vẫn phản đối chiến tranh; nhưng khi không còn nỗi sợ bị đăng lính, không có ký ức về việc tự tay gây tội ác phi nghĩa, hay nỗi đau đớn khi mất đi một người thân yêu, thì số người phản đối hẳn sẽ ít hơn.
Những kiểu vấn đề như thế này liên quan đến các phương tiện dân dụng tự hành rất ít vì không hãng xe nào lại đi lập trình cho phương tiện của mình nhắm đến việc tông chết người cả, Nhưng các hệ thống vũ khí tự động lại là một thảm họa đang chực xảy ra vì quá nhiều chính phủ có xu hướng đồi bại về đạo đức, nếu không muốn nói là độc ác rành rành.
Nguy cơ không chỉ giới hạn trong các loại máy móc giết người. Các hệ thống giám sát cũng rủi ro không kém. Trong tay một chính phủ ôn hòa, các thuật toán giám sát mạnh có thể là điều tuyệt vời nhất từng xảy đến với nhân loại. Thế nhưng cũng các thuật toán Big Data đó có thể trao quyền cho một Anh Cả tương lai, thế nên chúng ta có thể rốt cuộc rơi vào một cơ chế giám sát, trong đó mọi cá nhân bị giám sát mọi lúc.
Trên thực tế, có khi chúng ta sẽ đi đến kết cục không tưởng tượng nổi: một cơ chế giám sát toàn phần không chỉ theo dõi mọi hoạt động và lời nói bên ngoài mà còn có thể đi sâu quan sát các trải nghiệm bên trong của chúng ta nữa. Chẳng hạn, hãy xem một thể chế có thể làm gì với công nghệ mới. Trong tương lai, mỗi công dân ở thể chế đó có thể sẽ được yêu cầu đeo một vòng tay sinh trắc để giám sát mọi thứ mà người đó làm và nói, cũng như huyết áp và hoạt động não bộ. Bằng cách sử dụng những hiểu biết ngày càng lớn về não bộ con người và tận dụng sức mạnh khổng lồ của học máy, thể chế đó có thể lần đầu tiên trong lịch sử nắm bắt được điều mỗi công dân đang nghĩ từng giây từng phút. Nếu một người dân Bắc Hàn nhìn bức ảnh của Kim Jong-un và cảm ứng sinh trắc bắt được các dấu hiệu tiết lộ sự không hài lòng (huyết áp cao hơn, hoạt động vùng hạch hạnh nhân tăng), người đó sẽ có thể bị xử lý ngay sáng hôm sau.
Đương nhiên, thể chế đó có thể gặp khó khăn trong việc tự phát triển công nghệ cần thiết. Tuy nhiên, công nghệ đó có thể đã được khai phá tại các quốc gia giỏi về kỹ thuật và bị người khác sao chép hay mua lại. Một số nước đang liên tục cải tiến các công cụ giám sát của mình, và một số nước dân chủ khác, từ Mỹ cho đến đất nước quê hương Israel của tôi, cũng vậy. Với biệt danh “quốc gia khởi nghiệp”, Israel có ngành công nghệ cao cực kỳ năng động và một nền công nghiệp an ninh mạng hàng đầu. Cùng lúc đó, nó cũng bị mắc kẹt trong một cuộc xung đột chí tử với những người Palestine; ít nhất là một số lãnh đạo, tướng tá và công dân của Israel sẽ rất hài lòng khi tạo ra một thể chế giám sát toàn diện ở Bờ Tây ngay khi họ có các công nghệ cần thiết.
Ngay ngày hôm nay, mỗi khi người dân Palestine gọi một cuộc điện thoại, đăng cái gì đó lên Facebook hay đi từ thành phố này sang thành phố khác, rất có thể họ đang bị theo dõi bởi các máy thu âm, máy quay, máy bay không người lái hay phần mềm do thám của Israel. Các dữ liệu thu được sau đó được phân tích với sự trợ giúp của các thuật toán Big Data. Điều này giúp các lực lượng an ninh Israel xác định chính xác và vô hiệu hóa các mối đe dọa tiềm ẩn mà không cần phải có quá nhiều binh lính thực chiến. Người Palestine có thể quản lý một số thị trấn và làng mạc ở Bờ Tây, nhưng người Israel kiểm soát bầu trời, các dải sóng và không gian mạng. Do đó, lượng lính Israel cần thiết để quản lý hiệu quả khoảng 2,5 triệu người Palestine ở Bờ Tây là ít đến mức đáng ngạc nhiên.
Trong một sự kiện bi hài diễn ra vào tháng Mười năm 2017, một người lao động Palestine đăng lên tài khoản Facebook cá nhân một bức ảnh anh ta đang ở chỗ làm, cạnh một cái xe ủi. Bện cạnh hình ảnh đó, anh ta viết “Chào buổi sáng!”. Một thuật toán tự động đã mắc một lỗi nhỏ khi dịch các chữ Ả Râp. Thay vì ysabechhum (nghĩa là “chào buổi sáng”), nó nhận dạng các chữ cái thành ydbachhum (nghĩa là “giết chúng”). Nghi ngờ người đàn ông đó có thể là một kẻ khủng bố định dùng xe ủi cán mọi người các lực lượng an ninh Israel nhanh chóng bắt giữ anh ta. Anh ta được thả sau khi họ nhận ra lỗi của thuật toán. Nhưng bài đăng gây “gai mắt” trên Facebook kia vẫn bị gỡ. cẩn tắc vô ưu. Những gì người Palestine đang trải qua ngày hôm nay ở Bờ Tây có thể chỉ là một cuộc sơ duyệt cho những gì hàng tỷ người cuối cùng sẽ phải trải qua trên khắp hành tinh này.
Vào cuối thế kỷ 20, các nền dân chủ thường nổi trội hơn các nền độc tài vì chúng giỏi xử lý dữ liệu hơn. Nền dân chủ phân tán quyền xử lý thông tin và ra quyết định cho nhiều người và nhiều cơ quan, trong khi nền độc tài tập trung thông tin và quyền lực vào một chỗ. Với công nghệ của thế kỷ 20, việc tập trung quá nhiều quyền lực và thông tin vào một chỗ là không hiệu quả. Không ai có khả năng xử lý toàn bộ thông tin đủ nhanh và đưa ra các quyết định đúng cả.
Tuy nhiên, AI có thể sớm đẩy con lắc sang hướng ngược lại. AI khiến việc xử lý những lượng thông tin khổng lồ một cách tập trung trở nên khả thi. Trên thực tế, AI biến các hệ thống tập trung hóa trở nên hiệu quả hơn các hệ thống phân tán rất nhiều vì học máy hoạt động tốt hơn khi có nhiều thông tin để phân tích hơn, Nếu bạn bỏ qua mọi mối lo về quyền riêng tư và tập trung mọi thông tin liên quan đến một tỷ người trong một cơ sở dữ liệu, bạn có thể tạo ra các thuật toán giỏi hơn nhiều so với khi bạn tôn trọng quyền riêng tư cá nhân và có trong cơ sở dữ liệu của mình chỉ một phần thông tin của một triệu người. Chẳng hạn, nếu một chính phủ độc tài bắt toàn bộ công dân phải quét ADN và chia sẻ mọi dữ liệu y tế của họ với một cơ quan trung ương nào đó, nó sẽ có được một lợi thế cực kỳ lớn về mặt di truyền học và nghiên cứu y tế so với các xã hội mà các dữ liệu y tế là cực kỳ riêng tư. Nỗ lực tập trung mọi thông tin vào một chỗ, có thể trở thành lợi thế quyết định của chúng trong thế kỷ 21.
Khi các thuật toán dần biết ta quá rõ, các chính phủ độc tài có thể kiểm soát hoàn toàn công dân của mình, thậm chí còn hơn ở nước Đức Quốc xã, và việc chống lại các thể chế như vậy có thể là hoàn toàn bất khả. Nó không những sẽ biết chính xác bạn cảm thấy gì mà còn có thể khiến bạn cảm thấy bất cứ thứ gì nó muốn. Nhà độc tài có thể không cung cấp cho công dân của mình dịch vụ y tế hay sự bình đẳng, nhưng hắn có thể khiến họ yêu hắn và ghét những kẻ đối lập với hắn. Dân chủ ở dạng thức hiện tại không thể chống cự nổi sự hợp nhất của công nghệ sinh học và công nghệ thông tin. Hoặc nền dân chủ sẽ phải tự biến đổi tận gốc rễ trong một dạng thức hoàn toàn mới, hoặc con người sẽ đến lúc sống trong những “nền độc tài số”.
Đấy không phải là sự trở lại những ngày của Hitler và Stalin. Các nền độc tài số sẽ khác với nước Đức Quốc xã như Đức Quốc xã khác với nước Pháp quân chủ chuyên chế vậy. Vua Louis XIV là một nhà độc tài, nhưng ông ta không có công nghệ để xây dựng một đất nước toàn trị hiện đại. Ông ta không bị chống đối, nhưng vì chưa có radio, điện thoại và tàu hỏa nên ông ta hầu như kiểm soát được rất ít đời sống hằng ngày của nhũng nông dân tại các ngôi làng của người Breton xa xôi, hay ngay cả của những thị dân ở trung tâm Paris. Ông ta không có đủ ý chí cũng như khả năng để thiết lập một đảng phái lớn, một phong trào tuổi trẻ khắp toàn quốc hay một hệ thống giáo dục quốc gia. Chính những công nghệ mới của thế kỷ 20 đã mang lại cho Hitler cả động lực lẫn quyền lực để làm những điều đó. Chúng ta không thể dự đoán các động lực và quyền lực của các nền độc tài số vào năm 2084, nhưng khả năng cao là chúng sẽ không chỉ bắt chước Hitler và Stalin. Những người đang chuẩn bị để đấu tranh chống lại những trận chiến kiểu những năm 1930 có thể bị một cuộc tấn công từ một hướng hoàn toàn khác làm cho bất ngờ.
Ngay cả khi nền dân chủ tìm được cách thích nghi và tồn tại, con người vẫn có thể trở thành “nạn nhân” của những dạng áp bức và phân biệt mới. Ngày nay, ngày càng nhiều ngân hàng, tập đoàn và tổ chức đã và đang sử dựng các thuật toán để phân tích dữ liệu và đưa ra quyết định về chúng ta. Chẳng hạn, khi bạn nộp đơn xin vay tiền ngân hàng, rất có thể hồ sơ của bạn sẽ được một thuật toán xử lý thay vì một con người. Thuật toán phân tích rất nhiều dữ liệu về bạn và số liệu thống kê về hàng triệu người khác và quyết định liệu bạn có đủ độ tin cậy để nhận khoản vay không. Thường thì thuật toán làm tốt hơn một nhân viên ngân hàng. Nhưng vấn đề là việc thuật toán phân biệt đối xử bất công với một số người là rất khó nhận biết. Nếu ngân hàng từ chối cho bạn vay vốn và bạn hỏi: “Tại sao?” thì ngân hàng sẽ trả lời: “Thuật toán bảo không được”. Bạn hỏi tiếp: “Tại sao thuật toán nói không được? Tôi có gì không được?” thì ngân hàng đáp rằng: “Chúng tôi không biết. Chẳng người nào hiểu thuật toán này, vì nó dựa vào học máy cao cấp. Nhưng chúng tôi tin thuật toán của mình, thế nên chúng tôi sẽ không cho ông vay.”
Khi sự phân biệt đối xử hướng đến cả nhóm người, như phụ nữ hay người da đen, các nhóm này có thể tổ chức phản kháng sự phân biệt đối xử nhóm như vậy. Nhưng bấy giờ, một thuật toán có thể phân biệt đối xử với riêng bạn mà thôi và bạn sẽ không biết vì sao. Có thể thuật toán sẽ tìm thấy cái gì đó trong ADN của bạn, trong tiểu sử của bạn hay trong tài khoản Facebook của bạn mà nó không thích. Thuật toán phân biệt đối xử với bạn không phải vì bạn là phụ nữ hay là một người Mỹ gốc Phi mà vì bạn là bạn. Bạn không biết lý do chính xác; và ngay cả khi biết đi nữa, bạn cũng không thể tổ chức một cuộc phản đối cùng những người khác vì chẳng ai khác chịu sự thiên vị y hệt cả. Thay vì phân biệt đối xử nhóm, trong thế kỷ 21, chúng ta có thể đối mặt với một vấn đề ngày càng lớn là phân biệt đối xử mang tính cá nhân.
Ở những tầng cao nhất của quyền lực, chúng ta có lẽ sẽ vẫn giữ lại các lãnh đạo “hư danh” là con người, những người sẽ cho ta ảo tưởng rằng các thuật toán chỉ là những cố vấn và quyền lực tối thượng vẫn nằm trong tay con người. Chúng ta sẽ không chỉ định một AI làm thủ tướng Đức hay CEO của Google. Tuy nhiên, các quyết định do ngài thủ tướng và CEO đưa ra sẽ được AI định hình. Ngài thủ tướng có thể vẫn chọn giữa vài phương án khác nhau, nhưng tất cả các phương án đó sẽ là kết quả của phân tích Big Data và chúng sẽ phản ánh cách AI nhìn thế giới hơn là cách con người nhìn thế giới.
Để dẫn một ví dụ tương tự, chính trị gia ngày nay trên khắp thế giới có thể chọn giữa vài chính sách kinh tế khác nhau, nhưng trong hầu hết các trường hợp, những chính sách khác nhau được đưa ra đó phản ánh một cách nhìn mang tính tư bản về nền kinh tế. Các chính trị gia có ảo tưởng về sự lựa chọn, nhưng những quyết định thực sự quan trọng đã được các nhà kinh tế, chuyên gia ngân hàng và những doanh nhân, những người đã định hình các phương án khác nhau trên thực đơn, đưa ra từ rất lâu trước đó. Trong vài thập kỷ tới, các chính trị gia có thể thấy mình đang lựa chọn từ một thực đơn do AI viết nên.
—ooOoo—
THÔNG MINH NHÂN TẠO VÀ NGU DỐT TỰ NHIÊN
CÓ MỘT mẩu tin tốt là ít nhất trong vài thập kỷ tới, chúng ta sẽ không phải giải quyết cơn ác mộng khoa học viễn tưởng đang phát triển mạnh, rằng AI đạt tới tầm có được ý thức và quyết định nô dịch hay quét sạch loài người. Chúng ta sẽ ngày càng dựa vào các thuật toán để đưa ra các quyết định cho mình, nhưng ít có khả năng các thuật toán sẽ bắt đầu điều khiển chúng ta một cách có ý thức. Chúng sẽ không có chút ý thức nào cả.
Khoa học giả tưởng có khuynh hướng nhầm lẫn trí thông minh với ý thức và cho rằng để bắt kịp hoặc vượt qua trí thông minh của con người, máy tính sẽ phải phát triển ý thức. Cốt truyện cơ bản của gần như mọi bộ phim và tiểu thuyết về AI xoay quanh cái giây phút kỳ diệu, khi một máy tính hay một robot có được ý thức. Một khi điều đó xảy ra, hoặc là nhân Vật chính con người đem lòng yêu robot, hoặc robot cố gắng giết sạch con người; thỉnh thoảng cả hai xảy ra cùng lúc.
Nhưng trên thực tế, không có lý do gì để cho rằng trí tuệ nhân tạo sẽ có được ý thức vì trí thông minh và ý thức là hai thứ rất khác nhau. Trí tuệ là khả năng giải quyết vấn đề. Ý thức là khả năng cảm nhận những thứ như đau, vui, yêu và giận. Chúng ta có xu hướng nhầm hai thứ với nhau vì ở con người và các loài có vú khác, trí tuệ đi đôi với ý thức. Các loài có vú giải quyết hầu hết các vấn đề bằng cách cảm nhận mọi thứ. Tuy nhiên, máy tính lại giải quyết các vấn đề theo một cách rất khác.
Có một số con đường khác nhau dẫn đến trí tuệ cao và chỉ vài con đường trong số đó bao gồm việc có được ý thức. Cũng như máy bay bay nhanh hơn chim mà không bao giờ cần mọc lông, máy tính có thể giải quyết vấn đề tốt hơn các loài có vú rất nhiều mà không bao giờ cần phát triển cảm giác. Đúng, AI sẽ phải phân tích các cảm giác của con người một cách chính xác để chữa bệnh cho họ, nhận dạng những kẻ khủng bố, gợi ý bạn đời và tìm đường đi lối lại trên một con phố đầy người đi bộ. Nhưng nó có thể làm vậy mà không cần bất cứ cảm xúc gì của riêng nó cả. Một thuật toán không cần cảm thấy vui, giận hay sợ hãi để nhận ra các dạng thức sinh hóa khác nhau của những con linh trưởng đang vui, đang giận hay đang sợ hãi.
Dĩ nhiên, không phải hoàn toàn không có khả năng AI sẽ phát triển các cảm giác của riêng nó. Chúng ta vẫn không biết đủ nhiều về ý thức để chắc chắn về điều đó. Nói chung, có ba khả năng ta cần cân nhắc:
Bằng cách nào đó, ý thức liên quan đến hóa sinh hữu cơ theo cách khiến việc tạo ra ý thức trong các hệ thống vô cơ là không thể.
Ý thức không liên quan gì với hóa sinh hữu cơ, nhưng nó liên quan đến trí thông minh theo một cách khiến máy tính có thể phát triển ý thức và máy tính sẽ phải phát triển ý thức nếu chúng vượt qua một ngưỡng trí tuệ nhất định.
Không có mối liên hệ thiết yếu giữa ý thức và hóa sinh hữu cơ hay trí tuệ cao. Do đó, máy tính có thể phát triển ý thức, nhưng không nhất thiết phải thế. Chúng có thể trở nên siêu thông minh trong khi vẫn không có chút ý thức nào.
Với hiểu biết hiện tại của chúng ta, chúng ta không thể loại trừ bất cứ phương án nào trên đấy. Tuy nhiên, chính vì chúng ta biết quá ít về ý thức nên khó có khả năng ta có thể lập trình được các máy tính có ý thức trong tương lai gần. Do đó, dù khả năng của trí tuệ nhân tạo là rất lớn, trong tương lai có thể dự đoán được, việc sử dụng chúng vẫn sẽ tiếp tục phụ thuộc vào ý thức con người ở mức độ nào đó.
Mối nguy nằm ở chỗ nếu chúng ta đầu tư quá nhiều vào phát triển AI và quá ít vào phát triển ý thức con người, trí tuệ nhân tạo rất phức tạp của máy tính có thể chỉ phục vụ việc trao quyền cho sự ngu dốt bẩm sinh của con người mà thôi. Chúng ta có ít khả năng phải đối mặt với một cuộc nổi dậy của robot trong các thập kỷ tới, nhưng rất có thể chúng ta phải đối mặt với các binh đoàn robot biết cách kích hoạt những cảm xúc mạnh mẽ của chúng ta giỏi hơn cả mẹ chứng ta, và chúng sẽ dùng khả năng kỳ lạ này để cố thuyết phục chúng ta về một cái gì đó: xe hơi, một chính trị gia hay cả một ý thức hệ. Những con robot này có thể nhận thấy những nỗi sợ hãi, căm ghét và thèm khát sâu xa nhất của con người và sử dụng những ảnh hưởng bên trong này để chống lại chúng ta. Chúng ta đã được “nếm mùi” trước một chút những điều này trong các cuộc bầu cử và trưng cầu dân ý gần đây khắp thế giới, khi các hacker học được cách thao túng từng cử tri riêng lẻ bằng cách phân tích các dữ liệu về họ và khai thác các định kiến vốn có của họ. Trong khi các bộ phim khoa học viễn tưởng ly kỳ bị cuốn vào những biến cố kịch tính đầy khói lửa thì trên thực tế, chúng ta đang đối mặt với một biến cố tầm thường chỉ bằng cách nhấp chuột.
Để tránh những kết quả như vậy, với mỗi đô la và mỗi phút chúng ta đầu tư vào phát triển trí tuệ nhân tạo, sẽ là khôn ngoan nếu ta cũng đầu tư một đô la và một phút vào phát triển ý thức con người. Đáng tiếc là tại thời điểm hiện tại, chúng ta đang không làm được gì nhiều trong nghiên cứu ý thức con người và những cách phát triển chúng. Chúng ta đang nghiên cứu và phát triển các khả năng của con người chủ yếu theo nhu cầu tức thời của hệ thống kinh tế và chính trị thay vì theo các nhu cầu dài hạn của chính chúng ta với tư cách là các cá thể có ý thức. Sếp tôi muốn tôi trả lời email càng nhanh càng tốt, nhưng ông ta chẳng mấy hứng thú với khả năng nếm và thưởng thức đồ ăn của tôi. Do đó, tôi kiểm tra email ngay cả trong bữa ăn, đồng nghĩa với việc tôi mất khả năng chú ý đến vị giác của chính mình. Nền kinh tế tạo áp lực khiến tôi mở rộng và đa dạng hóa danh mục đầu tư của mình nhưng chẳng cho tôi chút động lực nào để mở rộng và đa dạng hóa lòng trắc ẩn cả. Thế nên tôi gắng sức tìm hiểu những bí ẩn của thị trường chứng khoán trong khi ít nỗ lực tìm hiểu những nguyên nhân sâu xa của sự khổ đau hơn rất nhiều.
Trong chuyện này, con người rất giống các động vật đã được thuần dưỡng khác. Chúng ta đã lai tạo ra những con bò dễ bảo, sản xuất hàng tấn sữa nhưng ngoài khía cạnh đó ra thì chúng hết sức kém cỏi so với tổ tiên hoang dã của chúng. Chúng kém nhanh nhẹn, kém tò mò và kém xoay xở trong các tình huống hơn. Giờ chúng ta đang tạo ra những con người dễ sai bảo, sản xuất hàng tấn dữ liệu và hoạt động như những con chip hết sức hiệu quả trong một guồng máy xử lý dữ liệu khổng lồ, nhưng những con bò-dữ liệu này khó mà tối đa hóa tiềm năng của con người. Thực sự là chúng ta không hề biết tiềm năng tối đa của con người là gì vì chúng ta biết quá ít về tâm trí con người. Thế nhưng chúng ta không đầu tư nhiều vào việc khám phá tâm trí con người; thay vào đó, ta tập trung vào tăng tốc độ kết nối Internet và tính hiệu quả của các thuật toán Big Data. Nếu không cẩn thận, chúng ta sẽ trở thành những con người hạ cấp sử dụng sai những máy tính cao cấp để tàn phá bản thân và thế giới.
Những nền độc tài số không phải là hiểm họa duy nhất chờ đợi chúng ta. Cùng với tự do, trật tự tự do cũng có niềm tin cực lớn vào giá trị của bình đẳng. Chủ nghĩa tự do luôn luôn tôn thờ bình đẳng chính trị và nó đã dần nhận ra bình đẳng kinh tế cũng quan trọng không kém. Vì nếu không có một tấm lưới bảo hộ an sinh xã hội và một chút bình đẳng kinh tế, tự do là vô nghĩa. Nhưng ngay khi các thuật toán Big Data dập tắt tự do, chúng có thể đồng thời tạo ra những xã hội bất bình đẳng nhất từng tồn tại. Tất cả của cải và quyền lực sẽ tập trung vào tay một nhóm tinh hoa cực nhỏ trong khi hầu hết mọi người sẽ hứng chịu không phải sự bóc lột mà là một thứ khác tồi tệ hơn rất nhiều: sự vô dụng.