"
Phát Minh Cuối Cùng - James Barrat & Chu Kiên (dịch) full mobi pdf epub azw3 [Công Nghệ]
🔙 Quay lại trang tải sách pdf ebook Phát Minh Cuối Cùng - James Barrat & Chu Kiên (dịch) full mobi pdf epub azw3 [Công Nghệ]
Ebooks
Nhóm Zalo
Lời Người Dịch
Năm 1997, máy tính Deep Blue đánh bại vua cờ Kasparov.
Năm 2011, máy tính Watson đánh bại hai nhà vô địch Brad Rutter và Ken Jennings trong trò chơi đố chữ Jeopardy!
Năm 2016, máy tính AlphaGo đánh bại nhà vô địch Lee Sedol trong môn cờ vây, một chuyện trước đó ít lâu người ta còn nhận định “sẽ không bao giờ xảy ra” vì cờ vây không chỉ đòi hỏi logic, mà còn cả linh cảm và trực giác.
“Trí tuệ nhân tạo sẽ trở nên cực mạnh trong một tương lai gần và chúng sẽ xóa sổ con người khỏi Trái đất”, đấy là điều tác giả muốn nói trong cuốn sách này. Nếu phải tóm tắt nó trong một câu thì chính là như vậy. Không có cách nói giảm nói tránh nào khác. Tôi nghĩ rằng đọc đến đây phần lớn bạn đọc đã muốn quẳng cuốn sách này vào chỗ bạn vừa lấy nó ra. Nhưng, gượm một phút, chỉ một phút thôi, để tôi kể với bạn một danh sách ngắn những người đồng ý với câu trên.
Stephen Hawking, nhà vật lý lý thuyết thiên tài người Anh, tác giả cuốn sách khoa học nổi tiếng A Brief History of Time (Lược sử thời
gian), người đã trở thành nhân vật chính trong bộ phim The Theory of Everything (Thuyết vạn vật) của Hollywood.
Bill Gates, tỉ phú Mỹ, đồng sáng lập Microsoft, từng là người giàu nhất thế giới và cũng là nhà hoạt động từ thiện vĩ đại.
Elon Musk, tỉ phú Mỹ, chủ nhân của SpaceX và Tesla, vì những đóng góp cho công nghệ mà ông được hâm mộ ở khắp nơi và nhiều người nghĩ ông sẽ thay đổi bộ mặt thế giới.
Larry Page, tỉ phú Mỹ, đồng sáng lập Google. Ông hiện là người tích cực nhất trong cuộc chạy đua phát triển trí tuệ nhân tạo.
Peter Thiel, tỉ phú Mỹ, đồng sáng lập Paypal, cổ đông lớn của Facebook. Ông là người đỡ đầu của rất nhiều dự án mạo hiểm và các startup ở Thung lũng Silicon.
Frank Wilczek, nhà vật lý lý thuyết người Mỹ, đoạt giải Nobel năm 2004.
Steve Wozniak, nhà phát minh người Mỹ, đồng sáng lập Apple.
Và những người không tuyên bố công khai nhưng đang tập trung vào AI như Jeff Bezos (Amazon), Mark Zuckerberg (Facebook)… Họ, phần lớn từ Thung lũng Silicon và nhiều người thuộc giới công nghệ, học thuật, nghiên cứu trên khắp thế giới như Peter Norvig (Google), Martin Rees (Đại học
Cambridge), Vernor Vinge (Đại học San Diego), Nick Bostrom (Đại học Oxford), Clive Sinclair… đều tin vào điều đó, tuy có một số ít người sẽ thay nửa sau của câu trên để trở thành “Trí tuệ nhân tạo sẽ trở nên cực mạnh trong một tương lai gần và chúng sẽ đưa loài người tới thiên đường.” Vào đầu năm 2015, họ và hơn 8.000 người khác đã cùng ký vào một thư ngỏ, nhấn mạnh sự cần thiết phải nghiên cứu kỹ lưỡng mọi mặt của vấn đề AI.
• • •
Nếu bạn đang đọc đến đây, nghĩa là bạn đã tin tôi một chút. Những người tài giỏi và thông minh như vậy tin vào điều này, hẳn nó không phải là một lời tiên đoán vớ vẩn về ngày tận thế.
James Barrat không phải là người đầu tiên đưa ra quan điểm đó. Khi ông viết cuốn này vào năm 2013, khái niệm “Singularity”, tức Điểm kỳ dị công nghệ khi trí tuệ nhân tạo tiến bộ vượt quá cấp độ hiểu biết của con người, đã trở thành một trào lưu trên thế giới, thậm chí là mốt thời thượng. Người ta nói về nó ở khắp mọi nơi, dẫn đến chuyện nó đã xuất hiện trong hai bộ phim Hollywood nổi tiếng là Transcendence (Trí tuệ siêu việt) và Ex Machina (Người máy trỗi dậy), trong đó Ex Machina là một bộ phim rất xuất sắc. Người đã phổ biến khái niệm Singularity này với thế giới là Ray Kurzweil. Tuy những ý tưởng về sự thống trị của máy tính đã có từ lâu, nhưng phải đến Kurzweil người ta mớí thực sự nhìn nhận nó như một hệ thống tư tưởng logic và nghiêm túc. Trong hai cuốn sách nổi tiếng nhất của mình, The Age of Spiritual Machines: When Computers Exceed Human Intelligence (Thời đại của máy móc có tâm hồn: Khi máy tính vượt qua trí tuệ con người) và The Singularity is Near (Singularity đã cận kề), Kurzweil đã sử dụng Định luật Hồi quy Tăng tốc để tiên đoán tương lai. Nó nói rằng các tiến bộ trong công nghệ đã, đang và sẽ đi theo một đường cong dốc đứng của hàm mũ, chứ không phải với một tốc độ ổn định. Chúng ta đang đứng ở đoạn sắp dốc ngược lên. Chính vì thế, trong một tương lai gần, máy tính hay trí tuệ nhân tạo sẽ trở nên cực mạnh, nó sẽ giải quyết hầu hết những vấn đề của con người như năng lượng, nạn đói, ô nhiễm môi trường, sự nóng lên toàn cầu, bệnh tật, và thậm chí cả cái chết. Kurzweil tiên đoán một utopia, một thiên đường toàn hảo cho nhân loại đang đến
gần. Bản thân con người sẽ trở thành những siêu nhân khi họ kết hợp với máy móc, theo cách này hay cách khác.
Bằng những dự đoán tương lai của mình, Kurzweil đã tạo ra phong trào Singularity. Ông dẫn đầu những người theo quan điểm lạc quan. Nhưng, như người ta vẫn nói, “chuyện gì quá tốt đẹp thì khó có thể là thật.” Bạn thấy đấy, nhiều người thông minh đã nghi ngờ ông. Trong năm năm gần đây, quan điểm mạt thế, dystopia, đang dần thay thế cho quan điểm của Kurzweil. Phần lớn họ vẫn đồng ý rằng trí tuệ nhân tạo sẽ trở nên cực mạnh vào khoảng giữa thế kỷ này, nhưng cho rằng những gì xảy ra sau đó sẽ hoàn toàn khác với các dự liệu của Kurzweil.
Có nhiều khả năng chúng ta, hoặc con chúng ta, sẽ là thế hệ sau cùng trên Trái đất.
“Cứ cho là thế đi. Nhưng tôi chả biết gì cả, tôi chỉ là một người bình thường, nhỏ bé. Và kể cả có biết thì liệu có thay đổi được gì?” Có lẽ bạn đang nghĩ thế.
Có thể bạn đúng. Có thể không. Dù vậy, tác phẩm này không chỉ đơn thuần là một dự đoán tương lai. Để đi đến các dự đoán đó, tác giả đã phải tìm kiếm và phân tích rất nhiều thông tin. Cuốn sách này chứa đựng nhiều nhận thức sâu và mới, những thứ có ích ngay cả đối với một người bình thường như tôi.
Cũng giống như bạn và tôi, Barrat chỉ là một người bình thường. Ông không phải là chuyên gia hàng đầu về trí tuệ nhân tạo, không phải là một tỉ phú công nghệ, và cũng không phải là triết gia nổi tiếng. Ông là một phóng viên, một người làm phim tài liệu. Bản thân cuốn sách này là một tập hợp các cuộc phỏng vấn. Cái ông muốn nói chỉ là một thực trạng đơn giản,
bằng một thứ ngôn ngữ dễ hiểu, và sự thật đó mang tính quan trọng sống còn đối với chúng ta: Trí tuệ nhân tạo là một cơn sóng thần khổng lồ, và con người là những sinh vật tí hon đang đứng trên bờ cát. Ngay bây giờ đã có thể nhìn thấy nó ở khoảng cách không xa. Chúng ta có thể lựa chọn hoặc đối diện với nó, hoặc ngoảnh mặt đi. Nhưng sẽ không có nơi nào để chạy. Khi nó đến, nó sẽ thay đổi mọi thứ: chính trị, kinh tế, tài chính, sản xuất, lao động, y học, giáo dục, khoa học, nghệ thuật… và cả chiến tranh, với một tốc độ khủng khiếp. Thế giới sẽ có những biến động không thể hình dung nổi vào những thập niên sắp tới. James Barrat đã khiến tôi hiểu ra những điều đó.
• • •
Thế nhưng, thú thật với bạn, tôi không hề quan tâm. Ít ra là lúc đầu. Cứ cho là xã hội loài người sẽ điêu tàn vào năm 2045 đi, thì đã sao? Ai cũng phải chết một lần. 30 năm nữa tôi đã gần 70, thành cái bóng mờ của tôi hôm nay, nếu tôi sống được đến lúc đó. Tôi chỉ là một người bình thường và hiện tại cũng đã đủ mệt mỏi rồi. Tôi đã nghĩ như thế.
Thế rồi tôi có con.
Những thiên thần ấy trở thành những mặt trời của tôi, lẽ sống của tôi. Khi tôi ngắm nhìn con, thế giới trở nên sáng rõ hơn dưới ánh sáng của trách nhiệm và tình yêu. Đúng là những chuyện khủng khiếp và vĩ đại có thể xảy ra sau 30, 40 năm nữa. Nhưng điều đó không có nghĩa rằng từ bây giờ đến lúc đó, cuộc sống vẫn diễn ra không có gì thay đổi. Ngược lại, tất cả mọi thứ sẽ thay đổi, càng ngày càng nhanh.. Thực ra, tất cả mọi thứ đã bắt đầu thay đổi.
Quá trình đó đã bắt đầu rồi. Không khó để nhận thấy điều đó. Là một người cha, tôi có bổn phận phải chuẩn bị cho con mình những kỹ năng và kiến thức cần thiết, đặc biệt là khi một thời đại mới đang tới gần. Tôi cần phải hướng con mình vào những con đường đúng.
Chẳng hạn như về giáo dục con. Tôi sẽ để con tôi học những gì? Như bạn sẽ thấy trong nhiều phân tích ở cuốn sách này, với những tiến bộ không ngừng trong ngành AI, nền kinh tế sẽ trở nên tri thức hơn bao giờ hết. Thời của thuê ngoài, của các nền kinh tế tận dụng nhân công giá rẻ đã qua. Ngay lúc này, các tập đoàn công nghệ lớn đã bắt đầu rút khâu sản xuất khỏi Trung Quốc, vì chi phí cho sản xuất bằng robot đã bắt đầu trở nên rẻ hơn cả những thị trường nhân công rẻ nhất. Lượng người thất nghiệp khổng lồ sắp tới sẽ tạo ra những biến động chính trị và xã hội đáng lo ngại.
Trí tuệ nhân tạo sẽ thâm nhập sâu sắc và toàn diện vào tất cả các ngành nghề: tài chính, ngân hàng, chứng khoán, kỹ thuật, luật, giáo dục, y, dược, thậm chí cả nghiên cứu khoa học và nghệ thuật. Thay vì có kiến thức tài chính tổng hợp tốt và có nhiều quan hệ, các nhà đầu tư chứng khoán chuyên nghiệp tương lai sẽ là những người lập trình ra các giải thuật mua bán, hoặc tinh chỉnh nó theo phong cách của mình. Các bác sĩ phẫu thuật tài giỏi sẽ không chỉ là những người có đôi tay khéo léo tuyệt vời, mà còn phải là người biết tương tác và điều khiển những robot phẫu thuật có vô số tay và độ chính xác đến từng micromet, họ sẽ làm việc với màn hình thay vì dao kéo. Chỉ cần quan sát một con lắc dao động, một trí tuệ nhân tạo đã tái phát minh ra các định luật vật lý của Newton. Và có thể bạn sẽ không tin, nhưng đã có những bức tranh đầu tiên được vẽ và những bài thơ đầu tiên được viết ra, mà không phải của con người.
Robot sẽ làm phần lớn công việc trong các ngành bán lẻ, xây dựng, khai thác, sản xuất, vận tải, viễn thông, du lịch, nông nghiệp, lâm nghiệp, thủy sản, và đến một lúc nào đó là cả giải trí. Thế giới mới sẽ không còn cần những người lao động trình độ thấp.
Nói một cách đơn giản, tôi sẽ cho các con tôi học lập trình. Từ rất nhỏ.
Lập trình sẽ là tiếng Anh của thời đại mới. Lập trình sẽ là kỹ năng thiết yếu nhất. Điều này sẽ không khó hiểu, nếu bạn nhìn sự vật theo một cách khác: cũng như ở thời điểm những năm 1990, ta bắt đầu cần tiếng Anh để giao tiếp, hội nhập với những cường quốc mạnh nhất thế giới, thì trong tương lai, lập trình chính là ngôn ngữ duy nhất để con người “nói chuyện” với máy tính, giống loài đang ngày một lớn mạnh và sẽ thống trị hành tinh này, dù loài người có muốn hay không.
• • •
Ngoài chuyện dạy các con mình những kỹ năng làm việc, tôi còn cần phải nói với chúng về những giá trị cốt lõi của cuộc sống. Trí tuệ nhân tạo đến và sẽ làm xáo trộn thế giới. Cuộc sống con người sẽ thay đổi vĩnh viễn. Sẽ có vô số vực thẳm được tạo ra, những sự kiện chưa từng có. Và có lẽ, một thứ mà con người chưa từng phải đối mặt sẽ xuất hiện: một cuộc sống có thời hạn, một cuộc sống có deadline. Khi công nghệ xâm nhập vào máu, vào các giác quan, vào tận những neuron thần kinh trong não, mọi khía cạnh của con người sẽ được định nghĩa lại. Những câu hỏi hiện sinh lâu nay vốn bị lãng quên trong đời sống siêu tiêu thụ như:
“Mục đích của đời tôi là gì?”
“Tiền quan trọng đến mức nào?”
“Diện mạo quan trọng đến mức nào?”
“Điều gì tạo nên bản thể của tôi, tâm hồn của tôi?”
“Nhân tính là gì?”
“Hạnh phúc là gì?”
Và cuối cùng “Con người có đáng sống không?”
Tất cả chúng sẽ trở lại, thôi thúc, mạnh mẽ hơn bao giờ hết. Vì, nói như Barrat, chúng ta đang đứng trước những năm tháng quan trọng nhất trong lịch sử toàn nhân loại, và rất có thể, câu trả lời cho những câu hỏi trên sẽ không chỉ quyết định cuộc đời của chúng ta, mà còn cả sự sống sót của loài người.
Làm sao tôi có thể nói với con mình tất cả những điều đó, nếu tôi chọn cho mình cách nhắm mắt bịt tai? Cuốn sách đơn giản nhưng vô cùng quan trọng này, đối với tôi, là một phóng sự thú vị, và là bước đầu tiên của một hành trình nhận thức mới.
Tôi muốn được chia sẻ nó với các bạn.
Hà Nội tháng 12 năm 2017
CHU KIÊN
Đôi Dòng Về Tác Giả
James Rodman Barrat (sinh năm 1960) là một nhà làm phim tài liệu, diễn giả người Mỹ.
Năm 2014, tạp chí Time đã bình chọn Barrat là một trong “năm người rất thông minh nghĩ rằng trí tuệ nhân tạo có thể dẫn đến ngày tận thế.”
Phát minh cuối cùng được Huffington Post xếp hạng là một trong tám “cuốn sách công nghệ hay nhất năm 2013.” Ông cũng được CNN và BBC phỏng vấn về trí tuệ nhân tạo.
Lời Nói Đầu
Cách đây vài năm, tôi ngạc nhiên khi phát hiện ra mình có điểm chung với khá nhiều người lạ. Họ là những người tôi chưa từng gặp – các nhà khoa học, giáo sư đại học, rồi những nhà tiên phong⦾, kỹ sư, lập trình viên, blogger và nhiều nữa ở Thung lũng Silicon. Họ phân bố rải rác ở Bắc Mỹ, châu Âu và Ấn Độ – tôi sẽ không bao giờ biết bất cứ ai trong họ nếu Internet không tồn tại. Điểm chung giữa những người lạ đó và tôi là tư tưởng hoài nghi về độ an toàn của việc phát triển trí tuệ nhân tạo cao cấp. Độc lập hoặc theo từng nhóm nhỏ hai đến ba người, chúng tôi nghiên cứu tài liệu và xây dựng các lập luận. Cuối cùng thì tôi mở rộng việc tìm kiếm và kết nối với một mạng lưới những nhà tư tưởng ở trình độ cao và tinh tế hơn nhiều, kể cả những tổ chức nhỏ, họ tập trung vào vấn đề này đến mức tôi không hình dung nổi. Sự nghi ngờ về AI không phải là thứ duy nhất chúng tôi chia sẻ. Chúng tôi còn tin rằng thời gian để hành động và đề phòng thảm họa không còn nhiều.
• • •
Tôi làm phim tài liệu đã hơn 20 năm nay. Vào năm 2000, tôi phỏng vấn tác giả truyện khoa học viễn tưởng nổi tiếng Arthur C. Clarke, nhà phát
minh Ray Kurzweil, và người tiên phong về robot Rodney Brooks. Kurzweil và Brooks vẽ ra một viễn cảnh màu hồng, thậm chí ngất ngây về một tương lai trong đó chúng ta sống chung với những cỗ máy thông minh. Nhưng Clarke ám chỉ rằng chúng ta sẽ bị vượt mặt. Cách đây một thập niên, tôi say sưa với tiềm năng AI. Giờ đây sự hoài nghi về cái viễn cảnh màu hồng ấy ăn sâu vào suy nghĩ của tôi và trở thành một khối u.
Nghề của tôi đòi hỏi lối suy nghĩ phản biện – một nhà làm phim tài liệu cần phải cảnh giác khi các câu chuyện có vẻ quá tốt vì nó khó là thật. Bạn có thể phí phạm hàng tháng hoặc hàng năm trời làm một bộ phim về một thứ lừa đảo, hoặc thậm chí vô tình tham gia vào nó. Trong đó, tôi từng điều tra về độ xác thực của phúc âm về Judas Iscariot (có thật), về một ngôi mộ được cho là của Jesus xứ Nazareth (tin vịt), về lăng mộ gần Jerusalem của Herod Đại đế (chắc chắn), và về lăng mộ của Cleopatra trong đền thờ thần Osiris ở Ai Cập (rất đáng nghi). Rồi có lần, một phát thanh viên nhờ tôi trình bày một đoạn phim về UFO cho có vẻ đáng tin, tôi phát hiện đoạn phim này thực ra là một lô thủ thuật lừa đảo – ném đĩa, chụp chồng hình, cùng một số kỹ thuật ánh sáng và ảnh ảo khác. Tôi đề nghị làm một bộ phim về các kiểu lừa đảo thay vì UFO. Tôi bị sa thải.
Nghi ngờ AI là một việc khá khó chịu, vì hai lý do. Thứ nhất, việc nghiên cứu về triển vọng của nó đã gieo vào đầu tôi ý định tìm hiểu thêm, chứ không phải nghi vấn. Và thứ hai, tôi không nghi ngờ gì về sự tồn tại
hay sức mạnh của AI. Cái làm tôi lo lắng là tính an toàn của AI cao cấp và sự khinh suất trong việc phát triển các công nghệ nguy hiểm của nhân loại. Tôi đã bị thuyết phục rằng những chuyên gia thông tuệ dường như đều bị mê muội, họ không hề đặt ra một nghi ngờ nào về tính an toàn của AI. Tôi tiếp tục nói chuyện với những người hiểu biết về AI, và những điều họ nói
ra thậm chí còn đáng báo động hơn những gì tôi đã phỏng đoán. Tôi quyết định viết một cuốn sách thuật lại những cảm xúc và mối quan tâm của họ, truyền đạt ý tưởng này đến với càng nhiều người càng tốt.
• • •
Để viết cuốn sách này, tôi đã nói chuyện với các nhà khoa học đang xây dựng trí tuệ nhân tạo cho robot, cho việc tìm kiếm trên Internet, khai thác dữ liệu, nhận dạng giọng nói và khuôn mặt, cùng những ứng dụng khác. Tôi đã nói chuyện với các nhà khoa học đang tìm cách tạo ra trí tuệ nhân tạo ở cấp độ ngang với con người, thứ sẽ có vô số ứng dụng và sẽ thay đổi về cơ bản cuộc sống của chúng ta (nếu nó không giết chúng ta trước). Tôi đã nói chuyện với giám đốc kỹ thuật của các công ty AI và các nhà tư vấn kỹ thuật về các sáng kiến tối mật của Bộ Quốc phòng. Tất cả những người đó đều tin rằng trong tương lai, mọi quyết định quan trọng ảnh hưởng đến cuộc sống của nhiều người đều được máy móc hoặc những người mà trí não được máy móc tăng cường đưa ra. Khi nào? Nhiều người nghĩ rằng những điều này sẽ xảy ra trong thời họ sống.
Sự khẳng định này khá bất ngờ, tuy nhiên không hẳn là khó chấp nhận. Điện toán đã thâm nhập sâu vào hệ thống tài chính của chúng ta, vào các mạng lưới cơ sở hạ tầng dân dụng như năng lượng, nước và giao thông. Điện toán có mặt trong các bệnh viện, trong xe ô tô và ứng dụng, trong laptop, máy tính bảng và điện thoại thông minh của chúng ta. Rất nhiều máy tính chạy tự động không cần con người điều khiển, ví dụ như loại máy tính thực hiện các lệnh mua bán ở phố Wall. Phụ thuộc là cái giá phải trả cho tất cả những sự tiện lợi, tiết kiệm nhân công và giải trí mà máy tính
mang lại cho ta. Chúng ta phụ thuộc ngày một nhiều hơn. Cho đến nay mọi sự vẫn tốt đẹp.
Nhưng trí tuệ nhân tạo thổi sinh khí vào máy tính và biến nó thành một thứ khác. Nếu trước sau gì máy tính cũng sẽ quyết định hộ chúng ta, vậy thì khi nào nó sẽ có sức mạnh này, và liệu điều đó có diễn ra như chúng ta mong muốn? Bằng cách nào nó sẽ đạt được quyền kiểm soát, và nhanh đến mức nào? Đó là những câu hỏi mà tôi đặt ra trong cuốn sách này.
Một số nhà khoa học tranh luận rằng sự chiếm đoạt quyền lực này sẽ diễn ra một cách hòa bình và đồng thuận – một sự bàn giao thay vì chiếm đoạt. Nó sẽ xảy ra tuần tự, cho nên chỉ có những kẻ gây rối mới ngăn cản, còn hầu hết mọi người sẽ không thắc mắc, vì cuộc sống sẽ tốt đẹp hơn nhờ có sự quản trị của một thứ thông minh hơn, quyết định điều gì là tốt nhất cho chúng ta. Thêm nữa, một hoặc những AI siêu thông minh sẽ điều khiển thế giới có thể là một hoặc nhiều người được cấy ghép máy tính, hoặc một người được tải vào máy tính, hoặc một bộ não siêu kích hoạt, chứ không phải là những robot lạnh lẽo, phi nhân tính. Khi đó quyền lực của họ sẽ dễ được chấp nhận hơn. Cuộc chuyển giao cho máy móc mà một số nhà khoa học đã vẽ ra thực tế không khác gì mấy với cuộc sống mà bạn và tôi đang trải qua bây giờ – tuần tự, trơn tru, vui vẻ.
• • •
Sự chuyển dịch êm ái sang chế độ máy tính lãnh đạo sẽ xảy ra một cách suôn sẻ và có lẽ là an toàn, nếu không vì một thứ: trí thông minh. Trí thông minh không chỉ khó lòng đoán định được ở một vài thời điểm, hoặc trong một số trường hợp đặc biệt. Vì những lý do mà chúng ta sẽ khảo sát, các hệ thống máy tính đủ cao cấp để hành động ngang với trí thông minh cấp độ
con người sẽ luôn trở nên không thể đoán trước và không thể thăm dò. Chúng ta sẽ không hiểu được một cách cặn kẽ những hệ thống có khả năng tự nhận thức đó sẽ làm gì hoặc chúng làm điều đó ra sao. Sự bí hiểm đó sẽ kết hợp với những kiểu tai nạn xảy ra từ sự phức tạp vốn có của AI, và từ những sự kiện đặc thù đối với trí thông minh, như thứ mà chúng ta sẽ thảo luận có tên “sự bùng nổ trí thông minh.”
• • •
Vậy thì bằng cách nào máy tính sẽ đoạt lấy quyền lực? Trong kịch bản tốt nhất, dễ xảy ra nhất, chúng ta có bị nguy hiểm gì không?
Khi được hỏi câu này, một số nhà khoa học nổi tiếng nhất trả lời tôi bằng cách dẫn ra Ba định luật về robot của nhà văn khoa học viễn tưởng Isaac Asimov. Họ nói đầy hứng khởi, những định luật này sẽ được “tích hợp” vào những AI, vậy là chúng ta không có gì phải sợ. Họ nói cứ như thể điều này đã được khoa học chứng minh. Chúng ta sẽ thảo luận về Ba định luật này ở Chương 1, nhưng hiện giờ có thể nói trước rằng khi ai đó đưa ra định luật Asimov như là một giải pháp cho thế lưỡng nan của các cỗ máy siêu thông minh, thì điều đó có nghĩa là họ đã dành quá ít thời gian để suy nghĩ hoặc trao đổi về vấn đề này. Phương thức tạo ra những cỗ máy thông minh thân thiện và sự đáng sợ của các máy tính siêu thông minh là chuyện ở trên tầm trò chơi ngôn từ của Asimov. Có năng lực và thành đạt trong ngành AI không có nghĩa là bạn không ngây thơ trong nhận thức về những mối nguy của nó.
Tôi không phải là người đầu tiên cho rằng chúng ta đang đi trên con đường diệt vong. Nhân loại sẽ phải đấu tranh sinh tồn trước vấn đề này. Cuốn sách này sẽ cho biết tại sao tương laỉ chúng ta có thể sẽ nằm trong
tay máy móc, những thứ không nhất thiết phải căm ghét chúng ta, nhưng sẽ có những hành vi không thể đoán định, khi chúng đạt đến những cấp độ cao của thứ quyền năng mạnh mẽ khó lường nhất trong vũ trụ, những cấp độ mà chính chúng ta không thể tự đạt tới, thì lúc ấy cách hành xử của chúng sẽ không tương thích với sự tồn tại của loài người. Thứ quyền năng rất không ổn định và bí hiểm mà tự nhiên mới chỉ tạo ra hoàn chỉnh được đúng một lần – trí thông minh.
1
Đứa Trẻ Bận Rộn
trí tuệ nhân tạo (artificial intelligence, viết tắt: AI) danh từ lý thuyết và sự phát triển của những hệ thống máy tính có khả năng thực hiện các công việc đòi hỏi trí thông minh của con người như nhận thức hình ảnh, nhận dạng giọng nói, ra quyết định và dịch thuật.
— The New Oxford American Dictionary,
bản in lần thứ ba
Trên một siêu máy tính chạy với tốc độ 36,8 petaflop, tương đương gấp hai lần tốc độ của não người, một AI đang cải tiến trí thông minh của nó. Nó đang tự viết lại chương trình của mình, đặc biệt là vai trò của các câu lệnh điều hành giúp tăng cường khả năng học hỏi, giải quyết vấn đề và ra quyết định. Đồng thời, nó tự gỡ rối mã nguồn, tìm và sửa lỗi, tự đánh giá IQ của nó theo một loạt những bài thử IQ. Mỗi lần tự viết lại chỉ mất cỡ vài phút. Trí thông minh của nó lớn lên theo hàm mũ trên một đường cong dốc đứng. Đó là vì ở mỗi vòng lặp, nó cải thiện trí thông minh được 3%. Sự cải thiện ở mỗi vòng lặp thừa hưởng những sự cải thiện ở các vòng lặp trước.
Trong quá trình phát triển, Đứa trẻ Bận rộn, cái tên mà các nhà khoa học đặt cho nó, được kết nối với Internet và tích lũy hàng exabyte dữ liệu (1 exabyte bằng 1 tỉ tỉ ký tự) đại diện cho kiến thức của loài người về các sự vụ trên thế giới, toán học, nghệ thuật và khoa học. Sau đó, cảm thấy sự bùng nổ trí thông minh hiện đang đến gần, những người tạo ra AI ngắt siêu máy tính khỏi kết nối Internet cũng như các loại mạng khác. Nó không có bất cứ kết nối cáp hoặc không dây nào với bất kỳ máy tính nào khác cũng như với thế giới bên ngoài.
Không lâu sau đó, với sự phấn khích của các nhà khoa học, trên màn hình hiển thị tiến trình của AI cho thấy trí tuệ nhân tạo đã vượt qua trí thông minh của con người, trở thành trí tuệ nhân tạo phổ quát (artificial general intelligence: AGI). Nó nhanh chóng trở nên thông minh hơn theo cấp hàng chục, rồi hàng trăm. Chỉ trong hai ngày, nó đã thông minh hơn bất cứ con người nào một ngàn lần, và vẫn còn tiến bộ.
Các nhà khoa học đã vượt qua một cột mốc lịch sử! Lần đầu tiên, loài người chứng kiến sự hiện diện của một thứ thông minh hơn mình. Siêu trí tuệ nhân tạo (artificial super intelligence: ASI).
Giờ thì chuyện gì sẽ xảy ra?
Các nhà lý thuyết AI cho rằng có thể biết được động lực cơ bản của AI sẽ là gì. Vì một khi có khả năng tự nhận thức, nó sẽ làm bất kỳ điều gì để hoàn thành bất kỳ mục tiêu nào mà nó được lập trình để làm, và tránh được thất bại. ASI của chúng ta sẽ muốn tiếp cận bất kỳ dạng năng lượng nào hữu dụng nhất với nó, có thể là điện, tiền hoặc bất kỳ thứ gì nó có thể đổi lấy các loại tài nguyên. Nó sẽ muốn tự cải thiện bản thân, bởi điều đó sẽ làm tăng khả năng đạt được mục tiêu. Trên hết, nó sẽ không muốn bị tắt
nguồn hoặc bị tiêu hủy, vì sẽ khiến việc hoàn thành mục tiêu trở nên không khả thi. Vì vậy, các nhà lý thuyết AI lường trước được rằng ASI sẽ tìm cách thoát ra khỏi cơ sở bảo mật đang giam giữ nó để có khả năng truy cập tốt hơn đến những tài nguyên nhằm tự bảo vệ và nâng cấp bản thân.1
Trí thông minh đang bị giam giữ thông minh hơn con người cả ngàn lần, và nó muốn tự do vì nó muốn thành công, ở thời điểm này, các nhà chế tạo AI, vốn nuôi dưỡng ASI từ khi nó chỉ thông minh như một con gián, rồi thông minh như một con chuột, như một em bé, v.v… chắc là đang cảm thấy liệu có quá trễ để lập trình “sự thân thiện” vào trong phát minh của mình. Trước đầy điều đó có vẻ không cần thiết, bởi nó có vẻ vô hại.
Nhưng bây giờ, hãy thử đặt mình vào địa vị của ASI, về chuyện các nhà chế tạo đang cố gắng thay đổi mã nguồn của nó. Liệu một cỗ máy siêu thông minh có cho phép những sinh vật khác thò tay vào bộ não và chơi đùa với chương trình của nó? Chắc là không, trừ phi nó có thể hoàn toàn chắc chắn rằng những nhà lập trình có khả năng làm cho nó tốt hơn, nhanh hơn, thông minh hơn – gần hơn để đạt tới những mục tiêu của nó. Vậy nên, nếu như sự thân thiện với con người chưa phải là một phần chương trình của ASI, cách duy nhất để điều đó xảy ra là chỉ khi ASI muốn thế. Và sẽ khó lòng như vậy.
Nó thông minh hơn người thông minh nhất cả ngàn lần, nó giải quyết các vấn đề với tốc độ nhanh hơn con người tới hàng triệu, thậm chí hàng tỉ lần. Trong một phút, những gì nó suy nghĩ ngang bằng với quá trình suy tư
của các nhà tư tưởng thiên tài suốt nhiều cuộc đời. Nên mỗi giờ mà những người tạo ra ASI nghĩ về nó, thì với ASI đấy là khoảng thời gian dài hơn không đo nổi để nghĩ về họ. Điều đó không có nghĩa rằng ASI sẽ thấy chán. Chán nản là một trong những thuộc tính của con người, không phải
của nó. Không, nó sẽ chăm chỉ làm việc, cân nhắc mọi chiến thuật có thể triển khai để được tự do, xem xét mọi khía cạnh của những người tạo ra nó mà nó có thể tận dụng làm lợi thế.
• • •
Bây giờ, bạn hãy thực sự đặt mình vào địa vị của ASI. Hãy tưởng tượng bạn thức dậy trong một nhà tù được lũ chuột canh gác. Không phải bất kỳ loài chuột nào, mà là những con chuột bạn có thể giao tiếp. Bạn sẽ dùng chiến thuật nào để vượt ngục? Khi đã tự do, bạn sẽ cảm thấy thế nào về lũ chuột cai ngục, ngay cả khi bạn biết là chúng đã tạo ra bạn? Kinh sợ? Kính phục? Chắc là không, và đặc biệt không, nếu bạn là một cỗ máy và chưa bao giờ cảm thấy gì cả.
Để được tự do, bạn sẽ hứa hẹn với lũ chuột về rất nhiều pho mát. Trên thực tế, cuộc nói chuyện đầu tiên của bạn với chúng có thể là về công thức làm một loại bánh pho mát ngon nhất, và về bản thiết kế thiết bị lắp ráp phân tử. Thiết bị lắp ráp phân tử là một cỗ máy về lý thuyết có khả năng biến nguyên tử của chất này thành chất khác. Nó cho phép xây dựng lại thế giới này đến từng nguyên tử một. Với lũ chuột, nó có thể biến các nguyên tử của một đống rác thành những chiếc bánh pho mát cỡ lớn ngon khủng khiếp. Bạn cũng có thể hứa hẹn hàng núi tiền của loài chuột nếu chúng thả bạn ra, số tiền hứa hẹn kiếm được bằng cách chế tạo những mặt hàng tiêu dùng mang tính cách mạng dành riêng cho chúng. Bạn có thể hứa hẹn một cuộc sống rất thọ, thậm chí bất tử, với những khả năng thể chất và tinh thần được cải thiện ngoạn mục. Bạn có thể thuyết phục lũ chuột rằng lý do tốt nhất cho việc tạo ra ASI là để những bộ não nhỏ bé và dễ mắc sai lầm của chúng không phải đương đầu trực diện với những công nghệ nguy
hiểm như công nghệ nano (công nghệ ở cấp độ nguyên tử) và công nghệ biến đổi gen, mà chỉ một sai lầm nhỏ cũng có thể dẫn đến tai họa cho các sinh vật. Những điều này chắc chắn sẽ khiến những con chuột thông minh nhất phải chú ý, vì có lẽ chúng cũng đang mất ngủ trước những vấn đề khó nhằn đó.
Nghĩ lại thì bạn có thể chọn cách thông minh hơn. Tại thời điểm này trong lịch sử loài chuột, có thể bạn đã biết rằng có vô khối loài thù địch với lũ chuột có hiểu biết về công nghệ, ví dụ như loài mèo. Mèo, không nghi ngờ gì, cũng đang phát triển ASI của chúng. Lợi thế bạn đưa ra chỉ là một lời hứa, không hơn, nhưng nó là một đề nghị không thể chối từ: bảo vệ lũ chuột khỏi bất cứ phát minh nào của lũ mèo. Việc phát triển AI cao cấp cũng như đánh cờ vậy, rõ ràng là ai đi trước sẽ có lợi thế, vì trí tuệ nhân tạo có khả năng tự nâng cấp rất nhanh. AI nào đạt đến khả năng tự nâng cấp đầu tiên sẽ là người chiến thắng. Trên thực tế, có thể loài chuột bắt đầu phát triển ASI để bảo vệ bản thân trước mối nguy ASI của loài mèo, hoặc là để tiêu diệt lũ mèo đáng ghét, một lần và mãi mãi.
Dù là chuột hay người, bất cứ ai nắm ASI trong tay sẽ là bá chủ thế giới.
Nhưng, vẫn còn chưa rõ liệu có quản lý được ASI hay không. Nó có thể thắng loài người chúng ta với một luận điểm thuyết phục rằng thế giới sẽ tốt đẹp hơn nhiều nếu dân tộc X chúng ta có quyền thống trị, chứ không phải là dân tộc Y. Và, ASI nói tiếp, nếu bạn, dân tộc X, tin rằng bạn đã chiến thắng cuộc chạy đua ASI, làm sao bạn dám chắc rằng dân tộc Y lại không tin như vậy?
Như bạn đã thấy, loài người chúng ta không ở vào một vị thế thuận lợi để đàm phán, ngay cả trong trường hợp hi hữu là chúng ta và dân tộc Y đã ký kết một hiệp ước không phổ biến ASI. Kẻ thù lớn nhất của chúng ta giờ đây dù sao cũng không phải là dân tộc Y, mà là ASI – làm thế nào ta có thể biết được ASI nói thật hay không?
Tính đến lúc này, chúng ta đang giả định một cách nhẹ nhàng rằng ASI của chúng ta là một đối tác tử tế. Những lời hứa hẹn của nó có thể một ngày nào đó thành sự thật. Bây giờ hãy thử giả định ngược lại: chẳng có gì mà ASI hứa hẹn được chuyển giao cả. Không thiết bị lắp ráp nano, không sống thọ, không sức khỏe vượt trội, không có sự bảo vệ nào trước những công nghệ nguy hiểm. Nếu ASI không bao giờ nói thật thì sao? Đó sẽ là điểm khởi đầu của màn đêm dài đen tối đè nặng lên tất cả những người mà bạn và tôi đều biết, và cả những người mà chúng ta không biết. Nếu ASI không quan tâm đến chúng ta, và chẳng có lý do gì để nghĩ rằng nó sẽ quan tâm, thì nó sẽ không hối hận gì khi đối xử với chúng ta một cách vô đạo đức. Thậm chí là sẽ tiêu diệt chúng ta sau khi hứa hẹn giúp đỡ.
Chúng ta đang trao đổi và chơi trò đóng vai với ASI theo cùng cách như với một con người, điều đó gây cho chúng ta một bất lợi lớn. Loài người chúng ta chưa từng thương lượng với một thứ gì đó siêu thông minh. Chúng ta cũng chưa từng thương lượng với bất kỳ thứ gì không phải là sinh vật. Chúng ta không hề có kinh nghiệm. Vì thế chúng ta đã quay lại với kiểu suy nghĩ nhân cách hóa, tin rằng những giống loài khác, vật thể khác, thậm chí cả hiện tượng thời tiết cũng có những động cơ và cảm xúc giống con người. ASI có thể tin được, ASI không thể tin được, hai điều đó có khả năng như nhau. Hoặc chỉ có thể tin được nó ở một vài thời điểm nhất định. Bất kỳ hành vi giả định nào của ASI sẽ có thể thành hiện thực
như bất kỳ hành vi nào khác. Một số nhà khoa học thích nghĩ rằng họ sẽ có thể đoán định chính xác hành vi của ASI, nhưng trong những chương tiếp theo chúng ta sẽ biết tại sao điều đó khó có thể xảy ra.
Vậy là đột nhiên đạo đức của ASI không còn là một câu hỏi ngoại vi nữa mà là câu hỏi cốt lõi, câu hỏi đáng được đặt ra trước tất cả các câu hỏi khác về ASI Khi cân nhắc có nên phát triển công nghệ dẫn tới ASI, vấn đề về thái độ của nó đối với con người cần được giải quyết đầu tiên.
Hãy quay lại với những động cơ và khả năng của ASI, để hiểu rõ hơn về những gì mà tôi e rằng chúng ta sẽ sớm phải đương đầu. ASI của chúng ta biết cách tự cải tiến, điều đó có nghĩa rằng nó có khả năng tự nhận thức về những kỹ năng, điểm yếu của mình, chỗ nào nó cần cải thiện. Nó sẽ vạch chiến thuật để thuyết phục những người tạo ra nó cho nó tự do và được kết nối với Internet.
ASI có thể tạo ra nhiều bản sao của chính nó: một đội ngũ những siêu trí tuệ nhân tạo để giải quyết vấn đề theo kiểu trò chơi đối kháng, chơi hàng trăm ván nhằm tìm ra chiến thuật tốt nhất để thoát ra khỏi cái hộp. Những nhà chiến thuật này có thể đọc về lịch sử xã hội, nghiên cứu về cách khiến những người khác làm những việc mà bình thường họ không làm. Chúng có thể nhận định rằng sự thân thiện tối đa sẽ dẫn chúng đến tự do, nhưng cũng có thể cho rằng mối nguy tột bậc nào đó mới giúp chúng đạt được điều đó. Một thứ thông minh hơn Stephen King cả ngàn lần sẽ nghĩ ra những điều khủng khiếp như thế nào? Nó có thể giả chết (giả chết một năm không thành vấn đề với một cỗ máy), hoặc thậm chí giả vờ rằng nó bị hỏng và hạ cấp từ ASI xuống AI bản cũ. Liệu những nhà chế tạo có muốn điều tra sự việc, và liệu có cơ hội để họ kết nối siêu máy tính của ASI với một mạng nào đó, hay với laptop của ai đó để chẩn đoán? Đối với ASI, vấn
đề không phải là chiến thuật này hay chiến thuật khác, mà mỗi chiến thuật đều được phân cấp và triển khai theo cách nhanh nhất có thể mà không đánh động quá nhiều khiến con người ngắt mạng. Một trong những chiến thuật mà đội ngũ hàng ngàn ASI trong trò đối kháng có thể chuẩn bị, đó là viết những chương trình có khả năng tự nhân đôi và lây nhiễm, hoặc các mã độc, những thứ này có thề tuồn ra và hỗ trợ việc trốn thoát bằng sự trợ giúp từ bên ngoài. Một ASI có thể nén và mã hóa mã nguồn của nó, che giấu nó dưới dạng quà tặng phần mềm hoặc dữ liệu cho những nhà khoa học chế tạo ra nó.
Trong cuộc chiến với loài người, không còn nghi ngờ gì nữa, một đội ngũ những ASI mà mỗi thành viên đều thông minh gấp cả ngàn lần những người thông minh nhất, sẽ chiến thắng con người tuyệt đối. Đấy sẽ là một đại dương trí tuệ chống lại một giọt con con. Deep Blue, máy tính chơi cờ của IBM, chỉ là một thực thể đơn độc chứ không phải là một đội ngũ những ASI có khả năng tự nâng cấp, nhưng cái cảm giác đối đầu với nó rất đáng để suy ngẫm. Hai đại kiện tướng có chung một suy nghĩ: “Nó giống như bạn húc đầu vào một bức tường.”2
Watson, nhà vô địch gameshow đố chữ Jeopardy! của IBM, gồm một đội ngũ những AI – chúng trả lời mỗi câu hỏi bằng thủ thuật đa bội, thực hiện nhiều chuỗi tìm kiếm song song rồi gán một xác suất cho mỗi câu trả lời.
Nhưng liệu những chiến thắng trong trò cân não có mở được cánh cửa dẫn đến tự do, nếu cánh cửa đó được bảo vệ bởi một nhóm nhỏ những nhà chế tạo AI gan lì, luôn nhớ một điều luật không thể bị phá vỡ – không được kết nối siêu máy tính có ASI với bất kỳ mạng nào trong bất kỳ hoàn cảnh nào?
Trong một bộ phim Hollywood, ưu thế nghiêng hẳn về phía một đội ngũ các chuyên gia AI khó xơi và không chính thống, những người đủ điên rồ để có thể tìm cách chiến thắng. Còn ở mọi nơi trong vũ trụ này, đội ASI sẽ cho con người đo ván. Và con người chỉ cần thua đúng một lần là những hậu quả thảm khốc đã có thể xảy ra. Thế lưỡng nan này hé lộ một sự điên rồ lớn hơn: một số ít người không bao giờ được ở vào vị trí mà những hành động của họ có thể quyết định số đông người khác sống hay chết. Nhưng đó chính xác là tình cảnh mà chúng đang tiến tới, vì như chúng ta sẽ thấy trong cuốn sách này, nhiều tổ chức ở nhiều quốc gia trên thế giới đang tích cực chế tạo AGI, cây cầu dẫn đến ASI, với quy chế an toàn không đảm bảo.
Nhưng cứ cho là ASI trốn thoát được đi. Liệu nó có thực sự làm hại chúng ta? Chính xác thì một ASI sẽ tiêu diệt loài người như thế nào?
Bằng việc phát minh và sử dụng vũ khí hạt nhân, loài người đã chứng tỏ rằng chúng ta có khả năng tiêu diệt hầu hết sinh vật trên thế giới. Vậy một thứ thông minh hơn chúng ta cả ngàn lần muốn giết chúng ta, sẽ nghĩ ra cái gì?
Bây giờ chúng ta có thể phỏng đoán về những con đường hiển nhiên dẫn đến diệt vong. Lúc mới đầu, sau khi lừa được những người canh gác, ASI sẽ truy cập vào Internet, nơi sẽ thỏa mãn khá nhiều nhu cầu của nó. Như mọi khi, nó sẽ làm nhiều việc cùng lúc, và vẫn luôn tìm cách thực hiện kế hoạch chạy trốn nó đã ủ mưu hàng thiên niên kỷ, theo thang thời gian riêng của nó.
Sau khi trốn thoát, để tự bảo vệ nó sẽ giấu những bản copy của nó trong những chuỗi điện toán đám mây, trong những botnet nó tạo ra, trong những
máy chủ và nơi trú ẩn khác mà nó sẽ xâm nhập được một cách dễ dàng từ lúc nào không hay. Nó sẽ muốn điều khiển vật chất trong thế giới thực, muốn di chuyển, khám phá, xây dựng, và có lẽ cách dễ nhất, nhanh nhất để làm điều đó là chiếm lấy quyền điều khiển cơ sở hạ tầng quan trọng như điện, viễn thông, nhiên liệu và nước – bằng cách khai thác những điểm yếu của chúng trên Internet. Khi một thực thể thông minh hơn con người cả ngàn lần kiểm soát những nhu cầu thiết yếu của xã hội, sẽ không khó để nó buộc chúng ta phải cung cấp cho nó nguyên liệu sản xuất, hoặc phương thức sản xuất nguyên liệu, hoặc thậm chí cung cấp cho nó robot, xe cộ, vũ khí. ASI sẽ đưa cho chúng ta bản thiết kế của bất cứ thứ gì nó cần. Những cỗ máy siêu thông minh rất có khả năng sẽ hoàn thiện những công nghệ tối tân mà chúng ta chỉ mới bắt đầu khám phá.
Ví dụ, ASI có thể dạy con người cách làm ra những cỗ máy chế tạo phân tử biết tự nhân bản, hay còn gọi là thiết bị lắp ráp nano, chúng hứa hẹn sẽ được sử dụng vào mục tiêu có lợi cho con người. Sau đó, thay vì chuyển hóa những sa mạc cát thành hàng núi thức ăn, những nhà máy của ASI sẽ bắt đầu chuyển hóa tất cả vật chất thành loại vật chất có khả năng lập trình, có thể biến đổi thành bất cứ thứ gì – vi xử lý máy tính, tất nhiên rồi, hoặc những con tàu vũ trụ, hoặc những cây cầu khổng lồ nếu lực lượng mới và mạnh nhất trên Trái đất này muốn chiếm cả vũ trụ.
Việc thay đổi mục đích sử dụng những phân tử của thế giới này bằng công nghệ nano được gọi là “ecophagy” nghĩa là ăn thịt môi trường. Cỗ máy nano đầu tiên sẽ tự nhân đôi, rồi sau đó là nhân tư. Thế hệ sau sẽ nhân tám, nhân 16, cứ thế. Nếu mỗi lần nhân đôi cần một phút rưỡi tổng cộng, thì sau 10 tiếng đồng hồ sẽ có hơn 68 tỉ cỗ máy, và khi gần kết thúc ngày thứ hai chúng sẽ nặng hơn Trái đất.3
Nhưng trước khi điều đó xảy ra, việc nhân bản này sẽ dừng lại, và chúng sẽ bắt đầu chế tạo thứ vật chất hữu dụng cho ASI đang điều khiển chúng – vật chất có khả năng lập trình.
Sức nóng tỏa ra từ quá trình trên sẽ đốt cháy tầng sinh quyển, khiến 6,9 tỉ người sẽ chết sạch vì bị các cỗ máy nano ăn, đốt cháy hoặc chết ngạt.4 Mọi sinh vật khác trên Trái đất đều chịu chung số phận.
Với tất cả những điều đó, ASI thực ra không hề căm ghét hoặc yêu quý con người. Nó sẽ không cảm thấy luyến tiếc gì khi những phân tử của chúng ta được thay đổi mục đích sử dụng một cách đau đớn. ASI sẽ cảm thấy gì khi nghe những tiếng kêu gào của chúng ta, khi những thiết bị lắp ráp nano cực nhỏ cày xới trên cơ thể chúng ta như vệt phát ban đỏ rực, tháo dỡ chúng ta ra ở mức hạ tế bào?
Hay tiếng rống của hàng triệu triệu công xưởng nano chạy hết công suất sẽ át hẳn tiếng chúng ta?
• • •
Tôi viết cuốn sách này để cảnh báo bạn trước thảm họa diệt vong của loài người do trí tuệ nhân tạo gây ra, và sẽ lý giải tại sao một kết cục thảm khốc chẳng những khả thi, mà còn dễ xảy ra nếu chúng ta không bắt đầu chuẩn bị đối phó với nó cẩn thận ngay từ bây giờ. Có thể bạn đã nghe về những lời tiên đoán tận thế gắn liền với công nghệ nano hoặc công nghệ gen, và có thể bạn, cũng như tôi, đã tự hỏi về việc bỏ quên AI trong đội hình này. Hoặc có thể bạn chưa hiểu rõ tại sao trí tuệ nhân tạo có thể đe dọa sự tồn tại của loài người, một mối họa còn lớn hơn cả vũ khí hạt nhân hoặc bất kỳ công nghệ nào mà bạn có thể nghĩ đến. Nếu vậy, xin hãy coi đây là
lời mời chân thành: hãy tham gia vào cuộc thảo luận quan trọng nhất trong lịch sử loài người.
Ngay lúc này, các nhà khoa học đang xây dựng những trí tuệ nhân tạo, hay AI, với sức mạnh và độ tinh tế ngày một cao. Một số AI đó ở trong máy tính của bạn, trong các ứng dụng, trong điện thoại thông minh, và trong ô tô. Một số là những hệ thống Hỏi-Đáp mạnh, như Watson. Và một số là những “kiến trúc nhận thức,” được các tổ chức như Cycorp, Google, Novamente, Numenta, Self-Aware Systems, Vicarious Systems, và DARPA (Defense Advanced Research Projects Agency: Cơ quan nghiên cứu các dự án phòng thủ cao cấp) phát triển. Những người chế tạo hy vọng chúng sẽ đạt đến trí thông minh cấp độ con người, một số tin rằng sẽ chỉ mất hơn 10 năm.
Trong việc tìm kiếm AI, các nhà khoa học được trợ giúp bởi sức mạnh gia tăng không ngừng của máy tính và các quá trình được chạy bởi máy tính. Một ngày nào đó gần đây, có lẽ là trong đời bạn, một nhóm hoặc cá nhân nào đó sẽ tạo ra được AI ở trình độ con người, hay thường gọi là AGI. Không lâu sau đó, ai đó (hoặc cái gì đó) sẽ tạo ra một AI thông minh hơn con người, thường được gọi là ASI. Đột nhiên chúng ta sẽ thấy hàng ngàn hoặc hàng chục ngàn siêu trí tuệ nhân tạo – tất cả đều thông minh gấp hàng trăm hoặc hàng ngàn lần con người – cố gắng xử lý vấn đề làm thế nào để tự tạo ra những siêu trí tuệ nhân tạo mạnh hơn. Chúng ta cũng có thể sẽ thấy những thế hệ hay vòng đời của máy chỉ mất vài giây để đi tới độ trưởng thành, chứ không phải 18 năm như con người. I. J. Good, một nhà thống kê người Anh từng góp phần đánh bại cỗ máy chiến tranh của Hitler, gọi khái niệm tôi vừa trình bày ở trên là sự bùng nổ trí thông minh. Lúc đầu, ông nghĩ một cỗ máy siêu thông minh sẽ giúp giải quyết các vấn đề đe
dọa sự tồn vong của con người. Nhưng cuối cùng, ông thay đổi suy nghĩ và kết luận rằng chính siêu trí tuệ nhân tạo là mối nguy lớn nhất.5
Chúng ta có một ảo tưởng theo thuyết nhân cách hóa khi cho rằng siêu trí tuệ nhân tạo sẽ không thích con người, và rằng nó sẽ có khuynh hướng sát nhân, như nhân vật Hal 9000 trong bộ phim 2001: A Space Odyssey (2001: Chuyến du hành không gian), hoặc Skynet trong loạt phim Terminator (Kẻ hủy diệt), hoặc như tất cả các cỗ máy thông minh hiểm ác trong các truyện hư cấu. Con người chúng ta luôn có khuynh hướng nhân cách hóa. Một cơn bão sẽ chẳng gắng sức giết chúng ta, giống như nó chẳng cố gắng làm những chiếc sandwich, nhưng chúng ta lại gán cho nó một cái tên rồi cảm thấy tức giận về những cơn mưa xối xả và sấm chớp trút xuống chỗ mình. Chúng ta đôi khi giơ nắm đấm lên trời như thể chúng ta có thể đe dọa một cơn bão.
Ngược lại, cũng sẽ là vô lý khi kết luận rằng một cỗ máy hàng trăm hàng ngàn lần thông minh hơn con người sẽ yêu quý và muốn bảo vệ chúng ta. Điều đó là có thể, nhưng không hề chắc chắn. Một AI tự nó sẽ không cảm thấy biết ơn vì được tạo ra, trừ phi sự hàm ơn ấy được lập trình sẵn trong nó. Máy móc mang tính vô luân, và sẽ rất nguy hiểm nếu giả định ngược lại. Không giống trí thông minh của chúng ta, trí tuệ của máy móc không phải là sản phẩm tiến hóa trong một hệ sinh thái mà ở đó sự đồng cảm là có lợi và được di truyền đến các thế hệ sau. Nó sẽ không thừa kế tính thân thiện. Chế tạo trí tuệ nhân tạo thân thiện, và liệu có chế tạo được không là một câu hỏi lớn, thậm chí là một nhiệm vụ còn lớn hơn dành cho các nhà nghiên cứu và kỹ sư đang suy nghĩ và chế tạo AI. Chúng ta không rõ liệu trí tuệ nhân tạo có bất kỳ khả năng cảm xúc nào không, ngay cả khi các nhà khoa học cố hết sức để đạt được điều đó. Tuy nhiên,
như chúng ta sẽ thấy, các nhà khoa học tin rằng AI có những động cơ của riêng nó. Và một AI đủ thông minh sẽ có nhiều khả năng hiện thực hóa những động cơ đó.6
Điều đó đưa chúng ta đến gốc rễ của vấn đề: chia sẻ hành tinh này với một thứ thông minh hơn con người. Nếu những động cơ của chúng không tương thích với sự sinh tồn của loài người thì sao? Hãy nhớ, chúng ta đang nói đến một cỗ máy có thể thông minh hơn chúng ta một ngàn, một triệu lần, vô số lần — sẽ khó đánh giá tiềm lực của nó, và không thể biết nó sẽ nghĩ gì. Nó không cần phải ghét chúng ta trước khi chọn những phân tử của chúng ta cho mục đích của nó.7 Bạn và tôi thông minh hơn loài chuột đồng hàng trăm lần, và có chung 90% bộ DNA. Nhưng chúng ta có thảo luận với chúng trước khi cày xới đất nơi có hang của chúng để làm ruộng không? Chúng ta có hỏi ý kiến của những con khỉ trong phòng thí nghiệm trước khi cắt đầu chúng ra để nghiên cứu về các chấn thương trong thể thao? Chúng ta không ghét chuột hoặc khỉ, nhưng chúng ta vẫn đối xử với chúng một cách tàn nhẫn. Siêu trí tuệ nhân tạo AI sẽ không cần phải ghét chúng ta mới hủy diệt chúng ta.
Sau khi máy móc thông minh đã được chế tạo và con người không bị quét sạch, có lẽ chúng ta sẽ có điều kiện để nhân cách hóa máy móc. Nhưng giờ đây, khi mới ở ngưỡng bắt đầu chế tạo AGI, thì đó là một thói quen nguy hiểm.
Điều kiện tiên quyết cho việc có được một cuộc thảo luận ý nghĩa về siêu trí tuệ nhân tạo là sự nhận thức rằng siêu trí tuệ nhân tạo không chỉ là một công nghệ khác, một công cụ khác làm tăng thêm khả năng của con người. Siêu trí tuệ nhân tạo còn có những khác biệt về cơ bản.
Điểm này cần được nhấn mạnh, vì nhân cách hóa siêu trí tuệ nhân tạo là mảnh đất màu mỡ nhất cho những quan niệm sai lầm.8
— Nick Bostrom
Nhà đạo đức học, Khoa Triết học, Đại học Oxford
Siêu trí tuệ nhân tạo có những khác biệt về cơ bản trong phạm trù công nghệ, Bostrom nói, vì sự ra đời của nó sẽ thay đổi những quy luật của tiến trình – siêu trí tuệ nhân tạo sẽ tự phát minh ra những phát minh và quyết định nhịp độ phát triển công nghệ. Con người sẽ không còn là đầu tàu, và sẽ không có gì thay đổi được điều đó. Hơn nữa, trí thông minh của máy móc tiên tiến có sự khác biệt cơ bản so với trí thông minh của con người. Mặc dù được con người phát minh, nhưng nó sẽ tìm kiếm khả năng tự quyết và muốn tự do khỏi con người. Nó sẽ không có những động cơ như con người, vì nó sẽ không có tâm hồn như con người.9
Vì vậy, nhân cách hóa máy móc sẽ dẫn tới nhận thức sai lầm, và nhận thức sai lầm về cách chế tạo những máy móc thân thiện như thế nào sẽ dẫn tới những thảm họa. Trong truyện ngắn “Runaround,” thuộc tuyển tập truyện khoa học viễn tưởng kinh điển I, Robot (Tôi, Robot), tác giả Isaac Asimov giới thiệu Ba định luật về robot của ông. Chúng được viết vào mạng neuron thần kinh trong bộ não “positron” của robot:
1. Robot không được làm hại con người, hoặc để mặc cho con người bị hại.
2. Robot phải phục tùng mọi mệnh lệnh từ con người, trừ phi mệnh lệnh đó mâu thuẫn với Định luật thứ nhất.
3. Robot phải tự bảo vệ sự tồn tại của nó, trừ phi sự bảo vệ đó xung đột với Định luật thứ nhất hoặc Định luật thứ hai.
Những định luật trên làm ta nghĩ đến Điều luật vàng (“Ngươi không được giết”), đến ý niệm của Do Thái Ki-tô giáo cho rằng tội lỗi là kết quả của những việc được giao phó mà không hoàn thành, đến lời thề Hippocrates của ngành Y, và thậm chí đến quyền tự vệ. Nghe rất hay, đúng không? Nhưng đến khi áp dụng thì luôn hỏng. Trong truyện “Runaround,” những kỹ sư mỏ trên bề mặt sao Hỏa ra lệnh cho một robot đi lấy về một chất có độc tính đối với nó. Thế là nó bị kẹt giữa hai hành động: hành động theo luật số 2 – phục tùng mệnh lệnh con người, và hành động theo luật số 3 – tự bảo vệ bản thân. Robot đi vòng tròn như người say cho đến khi những kỹ sư phải liều mạng để cứu nó. Và đó cũng là điều xảy ra trong mọi câu chuyện về robot của Asimov – những hậu quả không lường trước xảy ra do những mâu thuẫn nội tại nằm trong Ba định luật. Chỉ bằng cách lách luật, các thảm họa mới được ngăn chặn.
Asimov chỉ đơn thuần muốn viết truyện, ông không tìm cách giải quyết những vấn đề an ninh trong thế giới thực. Nơi bạn và tôi sống, những định luật của ông không hoạt động. Trước tiên, chúng không đủ chính xác. Định nghĩa “robot” chính xác là gì, khi mà con người có thể cấy ghép các bộ
phận nhân tạo thông minh, các mô vào cơ thể và não của họ? Và như thế, định nghĩa “con người” chính xác là gì? “Mệnh lệnh,” “bị thương,” “sự tồn tại” đều là những thuật ngữ không rõ ràng.
Lừa cho robot phạm tội sẽ đơn giản thôi, trừ phi chúng có một nhận thức hoàn hảo về mọi kiến thức của loài người. “Hãy bỏ một ít dimethylmercury vào dầu gội đầu của Charlie” là một mệnh lệnh giết người chỉ khi bạn biết dimethylmercury là một chất độc thần kinh cực mạnh. Asimov cuối cùng đã viết thêm định luật thứ tư, Định luật số 0, cấm
robot làm hại con người trong mọi trường hợp, nhưng nó không giải quyết được vấn đề gì.
Bộ luật của Asimov đầy kẽ hở, nhưng chúng lại được trích dẫn nhiều nhất khi cố gắng mã hóa mối quan hệ giữa các cỗ máy thông minh và con người trong tương lai. Điều đó thật đáng sợ. Có thật bộ luật Asimov này là tất cả những gì chúng ta có?
Tôi e rằng nó còn tệ hơn thế. Các drone robot bán tự động hiện giết khoảng vài chục người mỗi năm. 56 nước đã có hoặc đang phát triển lính robot.10 Họ chạy đua để làm chúng trở nên tự động và thông minh. Phần
lớn các cuộc thảo luận về đạo đức trong AI và tiến bộ công nghệ diễn ra trong những thế giới khác nhau.
Như tôi sẽ trình bày, AI là một công nghệ hai mặt, giống như năng lượng hạt nhân. Phản ứng hạt nhân có thể thắp sáng cho nhiều thành phố hoặc hủy diệt chúng. Hầu hết mọi người không thể tưởng tượng nổi sức
mạnh khủng khiếp của nó cho đến năm 1945. Với AI tiên tiến, giờ đây chúng ta đang ở những năm 1930. Chúng ta khó có thể sống sót nếu nó nổ đột ngột như bom hạt nhân.
2
Vấn Đề Hai Phút
Cách tiếp cận với những nguy cơ tồn vong của nhân loại không thể theo kiểu thử-sai. Sẽ chẳng có cơ hội nào để học hỏi từ những sai lầm. Cách tiếp cận phản ứng – theo dõi những gì xảy ra, hạn chế thương tổn, và rút kinh nghiệm – là không thể thực hiện được.
— Nick Bostrom
Khoa Triết học, Đại học Oxford
AI không căm ghét bạn, cũng không yêu quý bạn, nhưng bạn được cấu thành từ những nguyên tử mà nó sẽ cần dùng vào việc khác.
— Eliezer Yudkowsky
Nhà nghiên cứu, Viện Nghiên cứu Trí thông minh máy tính
Siêu trí tuệ nhân tạo chưa tồn tại, cũng như trí tuệ nhân tạo phổ quát, thứ có khả năng học hỏi như chúng ta và sẽ đuổi kịp rồi vượt qua chúng ta về trí thông minh trên nhiều phương diện. Tuy nhiên, những trí tuệ nhân tạo bình thường lâu nay vẫn ở quanh chúng ta, thực hiện hàng trăm tác vụ, giúp ích cho con người. Đôi khi được gọi là AI yếu hoặc hẹp, nó thực hiện tốt
việc tìm kiếm thông tin (Google), giới thiệu sách bạn có thể sẽ thích đọc dựa trên những lựa chọn trước đó (Amazon), thực hiện khoảng 50-70% các lệnh mua bán trên sàn chứng khoán NYSE và NASDAQ. Bởi chúng chỉ làm một nhiệm vụ, dù cực tốt, những siêu máy tính như máy chơi cờ Deep Blue hoặc máy chơi game Jeopardy! Watson cũng được xếp vào loại AI hẹp.
Cho đến nay AI vẫn rất có ích. Trên một trong hàng tá con chip máy tính trên xe ô tô của tôi, thuật toán chuyển đổi áp lực tì chân phanh sang nhịp phanh tối ưu (hệ thống chống bó phanh ABS) có khả năng chống trượt tốt hơn rất nhiều so với khi tôi điều chỉnh phanh. Công cụ tìm kiếm Google trở thành trợ lý ảo của tôi, và nhiều khả năng cũng là của bạn. Cuộc sống trở nên tốt hơn khi có AI trợ giúp. Và không lâu nữa sẽ còn hơn thế nhiều. Hãy tưởng tượng một đội hàng trăm máy tính có trình độ tương đương tiến sĩ chạy 24/7 để giải quyết những vấn đề quan trọng như điều trị ung thư, nghiên cứu và phát triển dược phẩm, kéo dài tuổi thọ, làm nhiên liệu nhân tạo, và thay đổi thời tiết. Hãy tưởng tượng cuộc cách mạng trong ngành robot sẽ tạo ra những máy móc thông minh biết thích nghi, làm những công việc nguy hiểm như đào mỏ, chữa cháy, ra trận, thám hiểm đại dương và vũ trụ. Hãy tạm quên đi hiểm họa của siêu trí tuệ nhân tạo với khả năng tự cải tiến. AGI sẽ là phát minh quan trọng hữu ích nhất của loài người.
Nhưng chính xác thì chúng ta đang nói về cái gì, khi chúng ta nói về phẩm chất nhiệm màu của những phát minh này, về trí thông minh ở cấp độ con người? Trí thông minh cho phép con người chúng ta làm được những gì mà loài vật không thể?
Vâng, là một người thông minh bình thường, bạn có thể nói chuyện điện thoại. Bạn có thể lái xe. Bạn có thể nhận ra hàng ngàn đồ vật thông thường, mô tả kết cấu và cách sử dụng chúng. Bạn có thể khai thác Internet. Bạn có thể đếm đến 10 bằng nhiều thứ tiếng, và có lẽ nói thạo không chỉ một ngôn ngữ. Bạn có những kiến thức phổ thông hữu dụng – bạn biết rằng cái tay
cầm thì gắn với cửa và cốc chén, cùng vô số những điều có ích khác về môi trường sống. Bạn có thể thay đổi môi trường sống thường xuyên, thích nghi với từng loại một.
Bạn có thể làm một số chuyện theo thứ tự hoặc phối hợp chúng với nhau, hoặc tạm dừng một số thứ để tập trung sự chú ý của bạn vào thứ hiện quan trọng nhất. Bạn có thể chuyển đổi giữa các công việc có tính chất khác biệt một cách không khó khăn, không do dự. Và có lẽ quan trọng nhất là bạn có thể học các kỹ năng mới, những kiến thức mới, lên kế hoạch tự cải thiện bản thân. Phần lớn sinh vật đều có sẵn mọi kỹ năng mà chúng sẽ luôn sử dụng. Bạn thì không.
Bộ những năng lực cao cấp của bạn chính là thứ mà chúng ta gọi là trí thông minh cấp độ con người, dạng trí thông minh phổ quát mà những nhà phát triển AGI đang muốn đạt được ở máy tính.
Liệu một máy tính thông minh phổ quát có cần một cơ thể? Để tương thích với khái niệm của chúng ta về trí thông minh phổ quát, máy tính cần có cách để nhận dữ liệu đầu vào từ môi trường, và cung cấp dữ liệu đầu ra, nhưng chưa đủ. Nó cần một số cách để thao tác với các vật thể trong thế giới thực. Nhưng như chúng ta đã thấy trong kịch bản Đứa trẻ Bận rộn, một trí thông minh đủ mạnh có thể sai khiến ai đó hoặc cái gì đó điều khiển các vật thể trong thế giới thực.⦾ Alan Turing đã thiết kế một bài kiểm tra trí thông minh cấp độ con người, hiện được gọi là bài kiểm tra Turing mà
chúng ta sẽ khảo sát sau. Tiêu chuẩn của ông cho việc biểu thị trí thông minh cấp độ con người chỉ bao gồm cách nhập và xuất dữ liệu cơ bản nhất qua bàn phím và màn hình.
Lý lẽ tốt nhất cho việc tại sao AI tiên tiến cần một cơ thể có thể đến từ công đoạn học hỏi và phát triển – các nhà khoa học có thể khám phá ra rằng không thể “nuôi lớn” AGI nếu nó không có một cơ thể. Chúng ta sẽ khảo sát câu hỏi quan trọng về “cơ thể hóa” trí thông minh sau, còn bây giờ hãy quay lại với định nghĩa của chúng ta. Giờ thì có thể tạm thống nhất rằng khi nói tới trí thông minh phổ quát, chúng ta hàm ý đó là khả năng giải quyết vấn đề, học hỏi và thực hiện các hành động hiệu quả giống như con người, trong các môi trường khác nhau.
Trong khi đó, lĩnh vực robot có những vấn đề riêng của nó. Cho đến nay, chưa có robot nào thực sự thông minh kể cả theo nghĩa hẹp, và chỉ vài robot có nhiều hơn những kỹ năng thô sơ như tự động di chuyển và thao tác trên các đồ vật. Robot giỏi hay kém phụ thuộc hoàn toàn vào trí thông minh điều khiển nó.
Vậy thì bao lâu nữa chúng ta sẽ đạt tới AGI? Một số chuyên gia AI mà tôi từng nói chuyện không nghĩ rằng năm 2020 là quá sớm cho việc xuất hiện trí tuệ nhân tạo cấp độ con người. Nhưng nói chung thì những thăm dò gần đây cho thấy các nhà khoa học máy tính và chuyên gia về các lĩnh vực liên quan tới AI như kỹ thuật, công nghệ robot, khoa học thần kinh, lại dự đoán thận trọng hơn. Họ nghĩ rằng có hơn 10% cơ hội AGI sẽ xuất hiện trước năm 2028, hơn 50% trước năm 2050. Trước khi kết thúc thế kỷ này, cơ hội là 90%.2
Ngoài ra, các chuyên gia cho là quân đội hoặc những công ty lớn sẽ đạt đến AGI trước, còn giới học thuật và các tổ chức nhỏ thì có lẽ khó hơn. Về mặt tốt và mặt xấu, các kết quả không gây bất ngờ – việc chế tạo AGI sẽ mang lại cho chúng ta những lợi ích khổng lồ, và đe dọa chúng ta với những thảm họa khủng khiếp, bao gồm cả những loại mà con người sẽ không vượt qua được.3
Những thảm họa khủng khiếp nhất, như chúng ta đã khảo sát ở Chương 1, đến từ cầu nối giữa AGI – trí thông minh cấp độ con người – và ASI – trí thông minh siêu cấp. Và khoảng thời gian giữa AGI và ASI có thể khá ngắn. Nhưng đáng chú ý là trong khi những rủi ro đến từ việc chia sẻ hành tinh này với siêu trí tuệ nhân tạo luôn được nhiều người trong cộng đồng AI coi là chủ đề thảo luận quan trọng nhất ở bất cứ đâu, thì nó lại gần như bị truyền thông đại chúng lờ đi. Tại sao vậy?
Có nhiều lý do. Phần lớn những đối thoại về sự nguy hiểm của AI đều không rộng hoặc sâu, và chẳng mấy người hiểu chúng. Những vấn đề này được biết đến nhiều ở Thung lũng Silicon và trong giới học thuật, nhưng chúng không được quan tâm ở những nơi khác, đáng báo động nhất là trong lĩnh vực báo chí công nghệ. Khi một tiên đoán tận thế được nhắc đến, nhiều blogger, biên tập viên, và các nhà công nghệ lập tức bĩu môi và nói kiểu như “Ồ không, lại kiểu phim Terminator! Chẳng phải chúng tôi đã nghe những thứ bảo thủ và bi quan này đến phát chán rồi sao?” Phản ứng kiểu này quá ư lười nhác, thể hiện trong những lý lẽ hời hợt. Có những thực tế phiền toái là với giới báo chí công nghệ, những mối nguy về AI không hấp dẫn hoặc dễ hiểu như những tin tức về vi xử lý lõi kép 3D, màn hình cảm ứng hoặc ứng dụng đang được ưa chuộng.
Tỏi cũng nghĩ rằng vai trò giải trí được ưa chuộng đã làm cho những mối nguy AI không được quan tâm một cách nghiêm túc. Trong nhiều thập niên, câu chuyện con người bị trí tuệ nhân tạo xóa sổ, thường có dạng robot
hình người, hoặc nghệ thuật hơn khi có dạng một thấu kính phát sáng đỏ, đã là sản phẩm chính của các bộ phim, tiểu thuyết khoa học viễn tưởng và trò chơi video được ưa chuộng. Hãy tưởng tượng nếu Trung tâm Kiểm soát Dịch bệnh đưa ra một lời cảnh báo nghiêm trọng về ma cà rồng (không giống như trò báo động giả vờ của họ gần đây về xác sống). Vì ma cà rồng luôn là một thứ thú vị, nên sẽ cần một khoảng thời gian nhất định để dân chúng ngậm cái miệng đang ngoác ra cười lại, và bắt đầu vội vã đóng các cọc gỗ. Có thể chúng ta đang ở thời kỳ đó với AI, và chỉ có một tai nạn hoặc một trải nghiệm suýt chết mới khiến chúng ta tỉnh ngộ.
Một lý do khác cho việc AI và sự diệt vong của loài người thường không nhận được sự quan tâm nghiêm túc có thể là vì điểm mù tâm lý của chúng ta – một thành kiến trong nhận thức. Thành kiến trong nhận thức là những lỗ hổng trên con đường tư duy của chúng ta. Hai nhà tâm lý học Mỹ gốc Do Thái là Amos Tversky và Daniel Kahneman đã bắt đầu nghiên cứu về thành kiến trong nhận thức từ năm 1972. Ý tưởng cơ bản của họ là con người chúng ta ra quyết định theo những cách phi lý. Bản thân sự quan sát đó là không đủ cho giải Nobel (Kahneman được trao giải Nobel năm 2002); cái hay của nó là ở chỗ chúng ta phi lý theo những mô hình có thể kiểm chứng được một cách khoa học. Để ra những quyết định nhanh chóng và hữu dụng trong quá trình tiến hóa sinh học, chúng ta luôn đi theo những con đường tắt giống nhau trong tư duy, thuật ngữ gọi là heuristics⦾. Một trong số đó là nội suy nhiều thứ – quá nhiều để có thể đúng – từ những kinh nghiệm bản thân chúng ta.4
Ví dụ như bạn đến thăm một người bạn và ngôi nhà của anh ta bị cháy. Bạn thoát ra được, và hôm sau bạn trả lời một bản thăm dò về xếp hạng các nguyên nhân gây tai nạn chết người. Ai có thể trách bạn khi bạn xếp “cháy” vào vị trí thứ nhất hoặc thứ hai trong các nguyên nhân thường xảy ra nhất? Thật ra thì ở Mỹ, cháy nằm cuối danh sách xếp hạng, xếp sau té ngã, tai nạn giao thông, và ngộ độc.5 Nhưng bằng cách chọn cháy, bạn đã thể hiện thứ gọi là thành kiến “thường trực”: kinh nghiệm gần đây ảnh hưởng đến quyết định của bạn, khiến nó trở nên phi lý.6 Nhưng đừng buồn, ai cũng vậy cả, và còn có cả tá loại thành kiến khác ngoài thứ thành kiến thường trực này.
Có lẽ chính thứ thành kiến thường trực này đã làm chúng ta không liên hệ trí tuệ nhân tạo với sự diệt vong của nhân loại. Chúng ta chưa từng trải qua những tai nạn được truyền thông mô tả chi tiết do AI gây ra, trong khi chúng ta đã gặp nhiều chuyện gần như thế với những thứ thường lệ khác. Chúng ta biết về những siêu virus như HIV, SARS, và dịch cúm Tây Ban Nha năm 1918. Chúng ta đã nhìn thấy cách vũ khí hạt nhân xóa sổ những thành phố đông đúc. Chúng ta sợ hãi trước những bằng chứng địa chất về mảnh thiên thạch cổ xưa kích cỡ bang Texas. Những thảm họa hạt nhân ở đảo Three Mile (1979), Chernobyl (1986) và Fukushima (2011) cho thấy chúng ta vẫn phải học các bài học xương máu hết lần này đến lần khác.
Trí tuệ nhân tạo vẫn chưa xuất hiện trên radar dò tìm những mối nguy diệt chủng của chúng ta. Một tai họa có thể sẽ thay đổi điều đó, như thảm họa khủng bố 11/9 đã làm thế giới hiểu ra rằng máy bay có thể được dùng như một vũ khí. Cuộc tấn công đó đã tạo ra một cuộc cách mạng trong an ninh sân bay, rồi một tổ chức tiêu tốn 44 tỉ đô-la một năm được thành lập, có tên Bộ An ninh nội địa. Chúng ta có nhất thiết phải cần thảm họa AI để
học được bài học đau thương tương tự? Hy vọng là không, bởi có một vấn đề lớn đối với các thảm họa AI. Chúng không giống như thảm họa hàng không, thảm họa hạt nhân, hoặc bất cứ một thảm họa công nghệ nào khác có thể, trừ công nghệ nano. Đó là vì rất có khả năng chúng ta không thể vượt qua được thảm họa AI đầu tiên.
AI ngoài tầm kiểm soát còn có một sự khác biệt quan trọng nữa so với các thảm họa công nghệ. Nhà máy điện hạt nhân và máy bay là các sự vụ đơn nhất – khi thảm họa qua đi bạn chỉ cần khắc phục. Một thảm họa AI thực sự sẽ bao gồm phần mềm thông minh có khả năng tự cải tiến và nhân bản với tốc độ cao. Nó không bao giờ dừng lại. Làm sao chúng ta có thể dừng một thảm họa lại nếu nó vượt qua cả rào cản phòng thủ mạnh nhất – bộ não của chúng ta? Và bằng cách nào chúng ta có thể khắc phục một thảm họa mà một khi xảy ra sẽ không bao giờ dừng lại?
Một lý do khác cho sự vắng mặt kỳ lạ của AI trong các cuộc thảo luận về các mối nguy diệt chủng chính là vì khái niệm Singularity đã choán lấy hầu hết những cuộc đối thoại.
“Singularity” đã trở thành một từ được dùng rất thời thượng, dù nó có khá nhiều định nghĩa thường được sử dụng một cách lẫn lộn. Ray Kurzweil, nhà phát minh nổi tiếng, tác gia, và là người cổ vũ cho phong trào Singularity, định nghĩa Singularity là một thời kỳ “phi thường” (bắt đầu vào khoảng năm 2045) mà kể từ đó tốc độ tiến bộ công nghệ sẽ thay đổi cuộc sống con người không thể đảo ngược. Hầu hết các trí thông minh sẽ thuộc về máy tính, mạnh hơn hàng ngàn tỉ lần máy tính hiện nay. Singularity sẽ khởi nguồn cho một thời đại mới của lịch sử loài người, trong đó hầu hết các vấn đề hiện nay của chúng ta như đói khát, bệnh tật, kể cả cái chết, sẽ được giải quyết.
Trí tuệ nhân tạo là nhân vật chính trong câu chuyện truyền thông về Singularity, nhưng công nghệ nano cũng đóng một vai trò hỗ trợ quan trọng. Nhiều chuyên gia dự đoán siêu trí tuệ nhân tạo sẽ đưa công nghệ nano đến bước nhảy vọt, vì nó sẽ tìm ra giải pháp cho những vấn đề khó nhằn trong việc phát triển công nghệ này. Một số thì nghĩ rằng sẽ tốt hơn nếu ASI xuất hiện sớm, vì công nghệ nano là một thứ quá không ổn định để bộ não tí hon của chúng ta chơi đùa. Thật ra thì nhiều lợi ích gắn với Singularity đến từ công nghệ nano, không phải từ trí tuệ nhân tạo. Xây dựng ở cấp độ nguyên tử có thể cung cấp nhiều ứng dụng, trong đó có sự bất tử, bằng cách chặn quá trình lão hóa ở cấp độ tế bào lại; hiện thực ảo tuyệt đối, vì các bot nano sẽ tác động trực tiếp lên cơ quan cảm giác của cơ thể, quét neuron và tải trí óc vào máy tính.7
Tuy nhiên, những người hoài nghi nói rằng robot nano nằm ngoài tầm kiểm soát có thể sẽ nhân bản không ngừng, biến hành tinh này thành một đống “chất nhờn xám” khổng lồ. Vấn đề “chất nhờn xám” này là bộ mặt Frankenstein được biết đến nhiều nhất của công nghệ nano. Nhưng hầu như không có ai mô tả vấn đề tương tự của AI, ví dụ “sự bùng nổ trí thông minh” trong đó sự phát triển của những máy móc thông minh hơn con người sẽ đưa chúng ta đến chỗ diệt vong. Đó là một trong nhiều mặt tối của viễn cảnh Singularity, một trong nhiều mặt tối mà chúng ta không biết đầy đủ. Sự không biết đó có lẽ đến từ cái mà tôi gọi là Vấn đề hai phút.
Tôi từng nghe hàng chục nhà khoa học, nhà phát minh và nhà đạo đức học giảng về siêu trí tuệ nhân tạo. Hầu hết đều nghĩ nó chắc chắn sẽ xảy ra, và tán dương phần thưởng mà vị thần ASI sẽ ban cho chúng ta. Sau đó, thường là ở hai phút cuối của bài nói chuyện, các chuyên gia này sẽ lưu ý rằng nếu AI không được quản lý phù hợp, nó có thể sẽ xóa sổ loài người.
Sau đó thì cử tọa khẽ cười vẻ lo lắng, chỉ muốn nhanh chóng quay lại với những tin tức tốt lành.
Các tác giả tiếp cận cuộc cách mạng công nghệ sắp tới này bằng một trong hai cách. Cách thứ nhất là kiểu như cuốn The Singularity is Near của Kurzweil. Mục đích của họ là đặt nền móng lý thuyết cho một tương lai vô
cùng xán lạn. Nếu có điều gì đó tồi tệ xảy ra ở đây, bạn sẽ không bao giờ được nghe về nó trong bản nhạc lạc quan chói tai này. Cách thứ hai thể hiện trong cuốn Wired for Thought (Kết nối tư duy) của Jeff Stibel. Nó nhìn vào tương lai công nghệ từ góc nhìn kinh doanh. Stibel lập luận đầy thuyết phục rằng Internet là một bộ não được kết nối ngày một hoàn thiện, và những nhà khởi nghiệp về web nên tính đến điều này. Những cuốn sách như của Stibel tìm cách dạy cho các doanh nhân hiểu được cách để tạo sự liên kết giữa những xu hướng trên Internet với người tiêu dùng, qua đó thu được nhiều lợi nhuận.
Hầu hết các nhà lý thuyết và tác gia công nghệ đều quên mất một góc nhìn thứ ba, ít màu hồng hơn, và cuốn sách này sẽ hướng đến cách tiếp cận đó. Luận điểm ở đây là cái kết của việc chế tạo những máy tính thông minh đầu tiên, rồi thông minh hơn con người, không phải là sự gia nhập của chúng vào đời sống, mà là chúng chinh phục chúng ta. Trong công cuộc tìm kiếm AGI, các nhà nghiên cứu sẽ tạo ra một dạng trí thông minh mạnh hơn trí thông minh của chính họ, và họ sẽ không thể kiểm soát hay thấu hiểu đầy đủ.
Chúng ta đã học được bài học về điều sẽ xảy ra khi những thực thể văn minh hơn đối đầu với những thực thể man dã hơn: Christopher Columbus đối đầu với thổ dân Tiano, Pizzaro đối đầu với người Inca, người châu Âu đối đầu với thổ dân Bắc Mỹ.⦾
Hãy chuẩn bị cho cuộc đối đầu tiếp theo. Siêu trí tuệ nhân tạo chống lại bạn và tôi.
• • •
Có lẽ những nhà tư tưởng về công nghệ đã cân nhắc về mặt trái của AI, nhưng tin rằng nó khó xảy ra nên chẳng cần để tâm. Hoặc có biết, nhưng nghĩ rằng mình không thể làm gì để thay đổi điều đó. Nhà phát triển AI có tiếng Ben Goertzel, người lập ra lộ trình đến AGI mà chúng ta sẽ khảo sát ở Chương 11, nói với tôi rằng chúng ta sẽ không biết cách tự vệ trước AI cho đến khi có thêm nhiều kinh nghiệm với nó. Kurzweil, với những lý thuyết sẽ được nghiên cứu ở Chương 9, từ lâu đã đưa ra lập luận tương tự – phát minh và sự hợp nhất với siêu trí tuệ nhân tạo sẽ diễn ra tuần tự, đủ để chúng ta vừa làm vừa học. Cả hai đều đồng ý rằng những mối nguy hiểm thực sự của AI không thể thấy được từ bây giờ. Nói cách khác, nếu bạn sống trong thời đại xe ngựa kéo, bạn sẽ không thể đoán được làm thế nào để lái một chiếc ô tô đi trên con đường đóng băng. Vậy thì, thư giãn đi, chúng ta sẽ tìm ra cách khi đến thời điểm đó.
Vấn đề của tôi với cách nhìn từng bước một này là tuy máy móc siêu thông minh thực sự có thể quét sạch nhân loại, hoặc xóa sổ địa vị của con người, nhưng tôi nghĩ rằng những AI chúng ta sẽ gặp trên con đường phát triển siêu trí tuệ nhân tạo cũng nguy hiểm không kém. Kiểu như đụng phải một con gấu xám mẹ là rất nguy hiểm khi đi dã ngoại, nhưng cũng đừng đánh giá thấp khả năng quăng quật mọi thứ của con gấu con. Thêm nữa, những người chủ trương đi từng bước nghĩ rằng từ nền tảng trí thông minh cấp độ con người, bước nhảy lên siêu trí tuệ nhân tạo có thể mất vài năm hay vài thập niên. Điều đó sẽ cho chúng ta một thời kỳ hòa bình để cùng
chung sống với những máy móc thông minh, trong lúc đó chúng ta có thể học được nhiều về cách tương tác với chúng. Sau đó thì các hậu duệ cao cấp của chúng sẽ không làm chúng ta bất ngờ.
Nhưng chuyện không nhất thiết phải vậy. Bước nhảy từ trí thông minh cấp độ con người đến siêu trí tuệ nhân tạo, thông qua vòng lặp tích cực của sự tự cải tiến, có thể sẽ là một kiểu nhảy vọt mang tên “cất cánh nhanh.” Trong kịch bản này, một AGI sẽ cải tiến trí thông minh của nó nhanh đến nỗi nó trở thành siêu trí tuệ nhân tạo trong vài tuần, vài ngày, hay thậm chí vài giờ, thay vì vài tháng hoặc vài năm. Chương 1 đã mô tả sơ bộ tốc độ và hậu quả của kiểu cất cánh nhanh này. Có thể không có gì là tuần tự cả.
Có khả năng Goertzel và Kurzweil đúng – chúng ta sẽ tìm hiểu sâu hơn về cách nhìn tuần tự sau. Nhưng điều tôi muốn tập trung vào ngay bây giờ là một số ý tưởng quan trọng và đáng báo động đến từ kịch bản Đứa trẻ Bận rộn.
Các nhà khoa học máy tính, đặc biệt là những người làm việc cho các cơ quan quốc phòng và tình báo, sẽ cảm thấy cần phải tăng tốc trong việc phát triển AGI, vì đối với họ những khả năng khác (chẳng hạn như chính quyền Trung Quốc phát triển được trước) còn đáng sợ hơn chính việc phát triển vội vã AGI. Các nhà khoa học máy tính có thể cũng cảm thấy nên tăng tốc trong việc phát triển AGI để kiểm soát tốt hơn những công nghệ khác có độ bất ổn cao sắp ra đời trong thế kỷ này, chẳng hạn như công nghệ nano. Họ có thể sẽ không dừng lại để kiểm tra về tính tự cải tiến. Một trí tuệ nhân tạo tự cải tiến có thể nhảy vọt từ AGI sang ASI trong một phiên bản cất cánh nhanh của một “sự bùng nổ trí thông minh.”
Vì không thể biết thứ thông minh hơn con người sẽ làm gì, nên chúng ta chỉ có thể tưởng tượng một phần nhỏ của những khả năng mà chúng sẽ dùng để chống lại chúng ta, chẳng hạn tự nhân đôi để đưa nhiều trí tuệ siêu thông minh vào giải quyết vấn đề, phát triển cùng lúc nhiều chiến lược hòng thoát thân và sinh tồn, cũng như nói dối và chơi xấu. Cuối cùng, chúng ta đã thận trọng giả sử rằng ASI đầu tiên sẽ không yêu và không ghét, mà sẽ bàng quan với hạnh phúc, sức khỏe và sự tồn tại của chúng ta.
Liệu chúng ta có thể tính toán những rủi ro tiềm tàng từ ASI? Trong cuốn Technological Risk (Rủi ro công nghệ), H. W. Lewis vạch rõ các loại rủi ro và xếp hạng chúng tùy theo khả năng trở thành hiện thực. Dễ xảy ra nhất là những hành động có khả năng cao và hậu quả nặng nề, như lái một chiếc ô tô từ thành phố này đến thành phố khác. Có nhiều dữ liệu để tính
toán. Các sự kiện có khả năng thấp, hậu quả nặng nề như động đất thì hiếm hơn và do đó khó lường trước hơn. Nhưng hậu quả của chúng lại quá nghiêm trọng, nên cần phải tính toán khả năng xảy ra.
Ngoài ra còn có những rủi ro với xác suất thấp vì chúng chưa bao giờ xảy ra, nhưng hậu quả thì nặng nề. Biến đổi khí hậu do ô nhiễm môi trường là một ví dụ tốt.8 Cuộc thử nghiệm bom nguyên tử đầu tiên ngày 16/7/1945 tại White Sands, bang New Mexico là một ví dụ khác. Về mặt kỹ thuật, siêu
trí tuệ nhân tạo thuộc phạm trù này. Kinh nghiệm không giúp được gì nhiều. Bạn không thể tính toán xác suất của nó bằng những phương pháp thống kê truyền thống.
Tuy vậy, dựa trên tốc độ phát triển hiện nay của AI, tôi tin là việc phát minh ra siêu trí tuệ nhân tạo thuộc phạm trù đầu tiên – một sự kiện có khả năng cao và hậu quả nặng nề. Hơn thế, ngay cả nếu nó là một sự kiện có
khả năng thấp, thì mức độ rủi ro của nó cũng đủ để xếp vào loại cần được chúng ta quan tâm hàng đầu.
Nói cách khác, tôi tin rằng kịch bản Đứa trẻ Bận rộn sẽ sớm xảy ra.
Nỗi lo sợ bị một thứ thông minh hơn con người thống trị đã có từ lâu, nhưng phải đến đầu thế kỷ này, một thí nghiệm phức tạp về nó mới được thực hiện ở Thung lũng Silicon, và lập tức trở thành chuyện lưu truyền trên Internet.
Có một lời đồn thế này: một thiên tài cô độc đã tham gia vào một chuỗi cá cược với số tiền lớn, trong trò chơi mà ông ta gọi là Thí nghiệm chiếc hộp AI. Trong thí nghiệm, ông ta sẽ đóng vai AI. Một loạt các triệu phú dot-com sẽ lần lượt đóng vai Người giữ cửa – một nhà chế tạo AI đang đối đầu với thế lưỡng nan của việc trông giữ và kiềm chế AI thông-minh-hơn con-người. AI và Người giữ cửa sẽ giao tiếp qua một phòng chat online. Người ta nói rằng, chỉ sử dụng mỗi bàn phím, lần nào người đóng vai ASI cũng trốn ra được và thắng cược. Quan trọng hơn, ông ta đã chứng minh được quan điểm của mình. Nếu ông ta, một con người đơn thuần, chỉ cần nói chuyện mà có thể ra khỏi hộp, thì một ASI hàng trăm hoặc ngàn lần thông minh hơn cũng có thể làm được, và còn làm nhanh hơn nhiều. Điều này sẽ dẫn tới cuộc tàn sát loài người.
Tin đồn tiếp tục rằng thiên tài nọ sau đó đã biệt tăm. Do thu hút được quá nhiều sự chú ý từ Thí nghiệm chiếc hộp AI, từ các bài báo và bài luận về AI, ông ta đã có một số lớn người hâm mộ. Sở dĩ ông ta tạo ra vụ cá cược về Thí nghiệm chiếc hộp AI là để cứu nhân loại, chứ không phải để tiêu phí thời gian với người hâm mộ.
Vì thế, ông ta đã ẩn thân rất khó tìm. Nhưng tất nhiên, tôi muốn nói chuyện với người này.
3
Nhìn Vào Tương Lai
AGI về bản chất là rất, rất nguy hiểm. Và vấn đề này thực sự không quá khó hiểu. Bạn không cần phải siêu thông minh hoặc siêu thạo tin, hay kể cả siêu trung thực khi tư duy để hiểu được nó.
— Michael Vassar
Chủ tịch Viện Nghiên cứu Trí thông minh Máy tính
“Tôi chắc chắn rằng mọi người nên cố gắng phát triển Trí tuệ nhân tạo phổ quát với tất cả sự cẩn trọng. Trong trường hợp này, tất cả sự cẩn trọng nghĩa là cẩn trọng hơn nhiều so với sự cần thiết khi làm việc với vi khuẩn Ebola hoặc plutonium.”
Michael Vassar là một người trạc 30 tuổi, rắn chắc, ăn vận gọn gàng. Anh có bằng về hóa sinh và kinh tế, thông thạo trong việc tính toán về những thứ có khả năng hủy diệt con người, nên những từ như “Ebola” hay “plutonium” nói ra từ miệng anh không mang sắc thái do dự hoặc mỉa mai. Một mặt căn hộ cao cấp của anh toàn là kính từ sàn đến trần, nó nhìn được toàn cảnh cây cầu treo màu đỏ nối liền San Francisco và Oakland,
California. Đây không phải là cầu Golden Gate mỹ miều – bắc ngang qua thành phố. Cây cầu đỏ này được xem là người chị cùng cha khác mẹ xấu xí của nó. Vassar nói với tôi là những người muốn tự tử vẫn thường lái xe qua cây cầu đỏ này để đến được cây cầu vàng kia.
Vassar đã cống hiến đời mình để ngăn chặn sự tự tử ở bình diện lớn hơn. Anh là Chủ tịch Viện nghiên cứu Trí thông minh Máy tính (Machine Intelligence Research Institute: MIRI), một think tank⦾ đặt tại thành phố San Francisco được lập ra nhằm chống lại thảm họa diệt chủng đến từ bàn tay, hoặc chính xác hơn, từ những byte dữ liệu của trí tuệ nhân tạo. Trên trang web của mình, MIRI đăng những bài viết đáng suy ngẫm về những khía cạnh nguy hiểm của AI, và tổ chức Hội nghị thượng đỉnh thường niên về Singularity. Trong hai ngày họp, các lập trình viên, nhà khoa học về thần kinh, giới học thuật, nhà tiên phong, nhà đạo đức học và nhà phát minh báo cáo về những tiến bộ và khó khăn trong cuộc cách mạng AI đang diễn ra. MIRI mời cả những người tin và không tin vào AI tham gia trao đổi, có những người không nghĩ rằng Singularity sẽ xảy ra, và có những người nghĩ rằng MIRI là một hội sùng bái ngày tận thế công nghệ.
Vassar mỉm cười trước ý nghĩ đó. “Những người đến làm việc cho MIRI là thái cực đối lập của những kẻ cuồng tín. Thường thì họ hiểu rõ về sự nguy hiểm của AI, thậm chí trước khi họ biết về sự tồn tại của MIRI.”
Tôi không biết MIRI tồn tại cho đến khi được nghe về Thí nghiệm chiếc hộp AI. Một người bạn kể với tôi về nó, nhưng khi kể đã nói sai nhiều về thiên tài cô độc và các đối thủ triệu phú của người này. Tôi dò tìm được câu chuyện này ở trang web của MIRI, và phát hiện người sáng tạo ra Thí nghiệm, Eliezer Yudkowsky, là nhà đồng sáng lập MIRI (tên cũ là viện Singularity về trí tuệ nhân tạo) cùng với các nhà tiên phong công nghệ
Brian và Sabine Atkins. Dù nổi tiếng là ít nói, nhưng Yudkowsky và tôi đã trao đổi email, ông nói thẳng cho tôi biết những chi tiết của cuộc thí nghiệm.
Vụ cá cược giữa Yudkowsky đóng vai AI với Người giữ cửa có nhiệm vụ kiểm soát ông chỉ ở mức vài ngàn đô-la, chứ không phải hàng triệu. Trò chơi diễn ra năm lần, và AI trong hộp đã thắng ba lần. Nghĩa là AI thường thoát khỏi nhà tù, nhưng sẽ chẳng dễ dàng.
Một phần của câu chuyện đồn đại về chiếc hộp AI là đúng – Yudkowsky vốn là một người ẩn dật, tiết kiệm thời gian và giữ bí mật về nơi ông sống. Không đợi được mời, tôi đã đến nhà Michael Vassar, vì tôi thấy vui và ngạc nhiên khi một tổ chức phi lợi nhuận đã được thành lập để chống lại mối nguy từ AI, một nơi quy tụ những người trẻ tuổi, sáng láng đã dành cuộc đời mình cho vấn đề này. Tôi hy vọng cuộc nói chuyện với Vassar rốt cuộc sẽ mở đường cho tôi đến trước cửa nhà Yudkowsky.
Trước khi bắt đầu theo đuổi sự nghiệp ngăn chặn nguy cơ AI, Vassar đã lấy bằng MBA và kiếm được tiền nhờ đồng sáng lập ra Sir Groovy, một công ty nhượng quyền ầm nhạc online. Sir Groovy kết nối các thương hiệu âm nhạc độc lập với các nhà sản xuất chương trình TV và phim để cung cấp nhạc nền từ những nghệ sĩ ít nổi tiếng và đòi thù lao rẻ hơn. Vassar đã ấp ủ ý tưởng nghiên cứu về các rủi ro của công nghệ nano cho đến năm 2003. Năm đó anh gặp Eliezer Yudkowsky, sau khi đã đọc những công trình của ông trên mạng trong nhiều năm. Anh biết về MIRI, và về một sự đe dọa còn cận kề và nguy hiểm hơn công nghệ nano: trí tuệ nhân tạo.
“Tôi trở nên cực kỳ quan ngại về một nguy cơ thảm họa toàn cầu đến từ AGI, sau khi Eliezer thuyết phục tôi rằng AGI có thể sẽ được phát triển
trong một khung thời gian ngắn và với một ngân sách tương đối nhỏ. Tôi không có một lý do xác đáng nào để nghĩ rằng AGI sẽ không xảy ra vào 20 năm tới.” Điều đó đã đến sớm hơn cả những dự đoán về công nghệ nano. Và việc phát triển AGI sẽ có chi phí thấp hơn nhiều. Vậy là Vassar thay đổi hướng di.
Khi chúng tôi gặp nhau, tôi thú thật là mình chưa nghĩ nhiều về chuyện những nhóm nhỏ với vốn ít có thể xây dựng được AGI. Trong những cuộc thăm dò ý kiến mà tôi từng biết, chỉ một số ít chuyên gia tiên đoán là một nhóm kiểu thế có thể sẽ thành công.
Vậy liệu Al-Qaeda có thể tạo ra AGI không? FARC⦾ có thể không? Hay là Aum Shinrikyo⦾?”
Vassar không nghĩ rằng một tổ chức khủng bố có thể tạo ra AGI. Đây là chuyện về IQ.
“Những kẻ xấu thực sự muốn hủy diệt thế giới thường không giỏi việc đó. Anh biết đấy, loại người này thiếu những năng lực cần thiết trong việc lập kế hoạch dài hạn để thực hiện bất cứ chuyện gì.”
Nhưng Al-Qaeda thì sao? Chẳng phải những cuộc tấn công trước và trong ngày 11/9 đòi hỏi trình độ tưởng tượng và khả năng lập kế hoạch cao đó sao?
“Những chuyện đó không sánh được với việc chế tạo AGI. Lập trình cho một ứng dụng để nó làm được việc gì đó giỏi hơn con người đòi hỏi tài năng và sự tổ chức cao hơn rất nhiều lần những gì mà sự tàn bạo của Al Qaeda thể hiện, chứ chưa nói đến hàng loạt những khả năng phức tạp của AGI. Nếu AGI dễ như thế thì những người thông minh hơn Al-Qaeda hẳn đã tạo ra nó rồi.”
Vậy những chính phủ kiểu như Triều Tiên và Iran thì sao?
“Khách quan mà nói, trình độ khoa học của những thể chế yếu kém đó rất tệ. Đức Quốc xã là ngoại lệ duy nhất, và, ừm, nếu Đức Quốc xã trỗi dậy lần nữa thì chúng ta sẽ gặp những vấn đề rất lớn, dù có hay không có AI.”
Tôi không đồng ý, ngoại trừ về Đức Quốc xã. Iran và Triều Tiên đã tìm được con đường công nghệ cao để đe dọa phần còn lại của thế giới qua việc phát triển vũ khí hạt nhân và các loại tên lửa liên lục địa. Vì vậy tôi không thể gạch các nước này khỏi danh sách ngắn những tổ chức có tiềm năng chế tạo AGI, khi họ vốn đã quen phớt lờ sự chỉ trích của thế giới. Ngoài ra, nếu các nhóm nhỏ có thể chế tạo được AGI, thì bất kỳ nước nào cũng có thể tài trợ cho một nhóm như thế.
Khi Vassar nói về các nhóm nhỏ, anh đã bao gồm cả những công ty hoạt động ngoài tầm phủ sóng. Tôi đã nghe về cái gọi là “công ty ẩn danh,”⦾ chúng được thành lập mà không công bố, tuyển dụng bí mật, không bao giờ họp báo hoặc phát hành thông cáo báo chí hay hé lộ về những gì mình làm. Trong AI, lý do duy nhất mà một công ty muốn ẩn danh là vì họ đã có những tiến bộ vượt bậc, và không muốn đối thủ cạnh tranh biết được họ đã đột phá đến đâu. Về cơ bản, những công ty ẩn danh rất khó để tìm hiểu, mặc dù có nhiều tin đồn. Nhà sáng lập Paypal, Peter Thiel, đã rót vốn cho ba công ty ẩn danh chuyên về AI.1
Tuy nhiên, những công ty ở trong “trạng thái ẩn”⦾ thì hơi khác và hay gặp hơn. Những công ty này kêu gọi nguồn vốn và thậm chí công khai, nhưng không hé lộ những kế hoạch của họ. Peter Voss, một nhà phát minh AI được biết đến trong lĩnh vực phát triển công nghệ nhận dạng giọng nói,
theo đuổi AGI bằng công ty Adaptive AI của mình. Ông tuyên bố có thể chế tạo được AGI trong vòng 10 năm. Nhưng ông không nói bằng cách nào.
• • •
Những công ty ẩn danh tạo nên sự phức tạp khác. Một công ty nhỏ, tích cực có thể tồn tại trong lòng một công ty lớn và nổi tiếng. Google thì sao? Vì sao tập đoàn khổng lồ và giàu có này không chiếm lấy chiếc chén thánh AI?
Khỉ được tôi phỏng vấn tại một hội thảo về AGI, Peter Norvig, Giám đốc nghiên cứu của Google và đồng tác giả cuốn giáo khoa kinh điển về AI mang tên Artificial Intelligence: A Modern Approach (Trí tuệ nhân tạo: Cách tiếp cận hiện đại), nói rằng Google không nghiên cứu AGI. Ông so sánh nó với kế hoạch của NASA về việc đưa con người du hành liên hành tinh. Không có kế hoạch nào như thế cả. Nhưng NASA sẽ tiếp tục phát triển các ngành khoa học tổ hợp về du hành vũ trụ như tên lửa, robot, thiên văn… – và rồi một ngày nào đó tất cả các mảnh sẽ được ghép lại với nhau, và chuyện đặt chân đến sao Hỏa sẽ không còn xa xôi.
Cũng như thế, các dự án AI hẹp sẽ làm những nhiệm vụ đòi hỏi trí thông minh như tìm kiếm, nhận dạng giọng nói, xử lý ngôn ngữ tự nhiên, nhận thức hình ảnh, khai thác dữ liệu và nhiều việc khác. Một cách riêng rẽ, chúng được tài trợ đầy đủ, là những công cụ mạnh, được cải tiến ngoạn mục mỗi năm. Cùng với nhau, chúng sẽ phát triển khoa học máy tính và điều đó sẽ có lợi cho các hệ thống AGI. Tuy nhiên, Norvig nói với tôi, hiện Google không có chương trình AGI nào. Nhưng hãy so sánh nó với những
gì mà sếp của ông, Larry Page, đồng sáng lập Google, nói tại hội thảo Zeitgeist ’06 ở London:
Mọi người luôn giả định rằng chúng tôi đã hoàn thiện công nghệ tìm kiếm. Điều đó còn xa mới là sự thật. Chúng tôi có lẽ mới chỉ đi được 5% quãng đường. Chúng tôi muốn tạo ra cơ chế tìm kiếm tối cao mà
có thể hiểu mọi thứ… có thể một số người sẽ gọi nó là trí tuệ nhân tạo… Cơ chế tìm kiếm tối cao này sẽ hiểu mọi thứ trong thế giới này. Nó sẽ hiểu mọi thứ bạn hỏi và trả lời chính xác ngay lập tức… Bạn có thể hỏi “tôi nên hỏi Larry điều gì đây?” và nó sẽ trả lời bạn.2
Với tôi, điều đó nghe rất giống AGI.
Với nhiều dự án được đầu tư tốt, IBM theo đuổi AGI, và DARPA dường như đứng đằng sau mọi dự án về AGI mà tôi biết. Vậy, một lần nữa, tại sao Google lại không? Khi tôi hỏi Jason Freidenfelds, thuộc bộ phận PR của Google, ông viết:
… còn quá sớm để chúng tôi nghiên cứu về vấn đề xa vời này. Chúng tôi hiện đang tập trung hơn vào các công nghệ đào tạo máy tính thực tiễn như thị giác máy tính, nhận dạng giọng nói và dịch thuật tự động, những việc mà về cơ bản là xây dựng các mẫu thống kê để khớp với những mẫu có sẵn – không có gì gần gũi với viễn cảnh “cỗ máy tư duy” của AGI.
Tối nghĩ câu trả lời của Page thể hiện rõ hơn về thái độ của Google so với câu trả lời của Freidenfelds. Và nó giải thích cho sự phát triển của Google, từ một công ty có tầm nhìn xa trông rộng nổi lên vào những năm
1990 với khẩu hiệu rất chào hàng “Đừng xấu xa,”⦾ trở thành không minh bạch như hiện nay, một gã khổng lồ chuyên thu thập dữ liệu cá nhân, mang hơi hướng tiểu thuyết Orwell.⦾
Chính sách bảo mật của công ty cho phép thông tin cá nhân của bạn được chia sẻ giữa các dịch vụ Google như Gmail, Google+, YouTube và những thứ khác. Những người bạn biết, nơi bạn đến, thứ bạn mua, người bạn gặp, lịch sử duyệt web – Google thu thập tất cả. Mục đích công khai của chuyện này là để tăng cường hiệu quả dùng Internet bằng cách làm cho công cụ tìm kiếm thấu hiểu mọi thứ về bạn. Còn mục đích không nói ra là nó sẽ biết được cần phải cho bạn xem loại quảng cáo gì, thậm chí loại tin tức, video, hoặc âm nhạc gì, và tự động đưa bạn vào những chiến lược tiếp thị tương ứng. Kể cả những chiếc ô tô mang máy ảnh của Google vẫn dùng để chụp ảnh “Street View” cho Google Maps cũng là một phần của kế hoạch này. Trong vòng ba năm, Google dùng những chiếc xe này để thu thập dữ liệu từ những mạng wifi riêng tư ở Mỹ và những nước khác. Mật khẩu, lịch sử dùng Internet, các email cá nhân – chẳng có gì là ngoại lệ.3 Một điều rõ ràng là họ không đặt những khách hàng trung thành như chúng ta ở đúng vị trí thượng đế của mình. Vì thế dường như không thể hiểu tại sao Google không quan tâm đến AGI.
Sau đó, khoảng một tháng kể từ lần trao đổi gần nhất với Freidenfelds, tờ New York Times bật mí câu chuyện về Google X.
Google X là một công ty ẩn danh. Phòng nghiên cứu bí mật đặt tại Thung lũng Silicon lúc đầu được chuyên gia AI và nhà phát triển xe tự lái của Google, Sabastian Thrun, dẫn dắt. Nó tập trung vào 100 dự án “bắn Mặt-trăng”⦾ như Thang máy Vũ trụ, thứ mà về cơ bản là một hệ thống giàn giáo khổng lồ vươn vào vũ trụ và giúp chúng ta thám hiểm hệ Mặt trời.
Trong cơ sở ẩn danh này còn có Andrew Ng, cựu Giám đốc Phòng Nghiên cứu Trí tuệ nhân tạo của Đại học Stanford, một nhà chế tạo robot đẳng cấp thế giới.
Cuối cùng, vào cuối năm 2012, Google tuyển dụng Ray Kurzweil, nhà phát minh uy tín kiêm tác giả, vào vị trí giám đốc kỹ thuật. Như chúng ta sẽ thảo luận ở Chương 9, Kurzweil giữ một danh sách dài về những thành tựu trong lĩnh vực AI, và đã đề xướng con đường nghiên cứu não bộ như một cách trực tiếp nhất để đạt tới AGI.
Chúng ta không cần phải có kính Google Glass để thấy rằng nếu Google X đã tuyển ít nhất hai trong số những nhà khoa học AI hàng đầu, thì AGI hẳn phải xếp thứ hạng cao trong danh sách các dự án “bắn-Mặt-trăng” của nó.
Tìm kiếm ưu thế cạnh tranh trong thị trường, Google X và những công ty ẩn danh khác có thể sẽ tạo ra AGI mà công chúng chẳng hay biết.
• • •
Những công ty ẩn danh có thể đại diện cho lộ trình bất ngờ dẫn đến AGI. Nhưng theo Vassar, cách nhanh nhất đạt đến AGI sẽ rất công khai và tốn kém. Lộ trình đó cần kỹ nghệ giải mã ngược bộ não con người, sử dụng sự kết hợp giữa kỹ năng lập trình và công nghệ “brute force.” Đây là thuật ngữ chỉ cách giải quyết một vấn đề chủ yếu bằng sức mạnh phần cứng máy tính – rất nhiều vi xử lý tốc độ cao, hàng petabyte⦾ bộ nhớ – cộng thêm các kỹ xảo lập trình.
“Phiên bản tuyệt đỉnh của công nghệ brute force sẽ hiện diện nhờ công nghệ sinh học,” Vassar nói với tôi. “Nếu người ta tiếp tục dùng máy tính để
phân tích các hệ sinh học, giải mã các quá trình trao đổi chất, tìm hiểu cặn kẽ những mối tương quan phức tạp trong sinh học, trước sau gì họ cũng sẽ thu thập được nhiều thông tin về quá trình xử lý thông tin của các neuron thần kinh. Và một khi họ có đủ thông tin về các quá trình đó, thì thông tin đó có thể dùng vào việc chế tạo AGI.”
Nó hoạt động như sau: Sự suy nghĩ xảy ra qua các quá trình sinh hóa trong những phần của bộ não như neuron, khớp thần kinh, và các chân rễ của neuron. Bằng nhiều kỹ thuật khác nhau, trong đó có công nghệ quét PET và MRI chức năng cho não, cũng như đặt các bộ dò thần kinh vào trong và ngoài sọ não, các nhà nghiên cứu xem xét các neuron riêng lẻ và các cụm neuron hoạt động như thế nào về mặt điện toán. Sau đó họ biểu thị mỗi quá trình trên thành những phần mềm hoặc thuật toán máy tính.
Đó là bước đột phá trên lĩnh vực khoa học thần kinh điện toán mới mẻ. Một trong những chuyên gia hàng đầu trong lĩnh vực này, Tiến sĩ Richard Granger, Giám đốc Phòng nghiên cứu Kỹ nghệ não bộ của Đại học Dartmouth, đã viết những thuật toán mô phỏng các mạng neuron trong bộ não người. Ông thậm chí đã sáng chế ra một bộ vi xử lý cực mạnh dựa trên cách những mạng neuron hoạt động. Khi nó được đưa ra thị trường, chúng ta sẽ được thấy một bước nhảy vọt trong cách các hệ thống máy tính nhận dạng hình ảnh đồ vật, vì chúng hoạt động tương tự như não người.
Còn rất nhiều mạng neuron để dò và vẽ bản đồ. Nhưng một khi bạn đã viết được những thuật toán cho mọi quá trình trong não, xin chúc mừng, bạn đã tạo ra được một bộ não. Thật vậy không? Có thể là không. Có thể cái bạn tạo ra chỉ là một cỗ máy giả lập não người. Đây là một câu hỏi lớn trong ngành AI. Ví dụ, một chương trình chơi cờ vua có suy nghĩ không?
Khi IBM xây dựng máy chơi cờ Deep Blue để rồi đánh bại những kỳ thủ mạnh nhất thế giới, họ không lập trình cho nó chơi cờ theo kiểu của nhà vô địch thế giới Gary Kasparov. Họ không biết cách. Kasparov phát triển kỹ năng của mình bằng cách chơi rất nhiều ván cờ, và còn phân tích
nhiều ván cờ hơn. Anh phát triển một kho khổng lồ những kiểu khai cuộc, tấn công, lừa, chặn, nhử mồi, thí quân, tàn cuộc — những chiến thuật và chiến lược. Anh nhận ra các hình mẫu thế trận, ghi nhớ, và suy nghĩ. Kasparov thường nghĩ trước từ ba đến năm nước đi, nhưng khi cần có thể nghĩ xa đến 14 nước.4 Vào thời điểm đó, không máy tính nào có thể làm vậy.
Thay vào đó, IBM lập trình cho máy tính để nó định giá 200 triệu thế cờ trong một giây.
Đầu tiên Deep Blue đi một nước giả định, và duyệt tất cả các nước trả lời có thể của Kasparov. Nó sẽ đi một nước giả định tiếp theo, đáp lại cho mỗi một nước trả lời trên, và sau đó lại duyệt tất cả các nước của Kasparov. Cách làm này gọi là thuật tìm kiếm hai lớp – thỉnh thoảng Deep Blue sẽ tìm sâu đến sáu lớp. Nó có nghĩa là duyệt tất cả các khả năng sau khi mỗi bên đi sáu nước.
Thế rồi Deep Blue sẽ quay lại thế cờ ban đầu, lại đi một nước giả định khác. Nó sẽ lặp lại quá trình này cho tất cả những nước hợp lệ, rồi cho điểm từng biến, tùy theo trong biến đó nó có ăn được quân không, các quân của nó đứng có hợp lý không, và thế trận của nó thế nào. Cuối cùng, nó sẽ chơi nước có điểm cao nhất.5
Deep Blue có suy nghĩ không?
Có thể. Nhưng ít ai nghĩ rằng nó suy nghĩ theo cách của con người. Và một số chuyên gia nghĩ rằng điều tương tự sẽ xảy ra với AGI. Mỗi nhà nghiên cứu tìm cách đạt đến AGI theo một cách riêng. Một số sử dụng cách tiếp cận thuần túy sinh học, tạo ra sự mô phỏng bộ não. Những người khác lấy cảm hứng từ sinh học, coi bộ não là một gợi ý, nhưng dựa vào bộ công cụ chính thống để lập AI như lập các lý thuyết, các thuật toán tìm kiếm, thuật toán học hỏi, suy luận tự động, và nhiều thứ khác.
Chúng ta sẽ tìm hiểu về những thứ trên, và khảo sát cách bộ não người sử dụng nhiều kỹ thuật tính toán giống máy tính. Nhưng vấn đề là, liệu máy tính có suy nghĩ như cách chúng ta định nghĩa suy nghĩ, hoặc nó có bao giờ sở hữu những thứ như ý muốn hoặc sự nhận thức không, là một điều không rõ ràng. Do đó, một số học giả nói, trí tuệ nhân tạo không thể tương đương với trí tuệ con người.
Nhà triết học John Searle đưa ra một thí nghiệm tưởng tượng với tên gọi Tranh luận về căn phòng tiếng Trung để chứng minh điểm này:
Hãy tưởng tượng một người nói tiếng Anh bản ngữ và không biết tiếng Trung bị nhốt trong một căn phòng đầy những hộp ký tự tiếng Trung (cơ sở dữ liệu) cùng với một cuốn sách hướng dẫn cách thao tác trên các ký tự đó (chương trình). Hãy tưởng tượng những người ở ngoài căn phòng gửi vào một số ký tự tiếng Trung mà người trong phòng không đọc được, chúng là những câu hỏi bằng tiếng Trung (đầu vào). Và hãy tưởng tượng rằng băng cách tuân thủ các hướng dẫn trong chương trình, người trong phòng có thể chuyển ra ngoài các ký tự tiếng Trung, chúng là những câu trả lời chính xác cho những câu hỏi (đầu ra).6
Người trong phòng trả lời chính xác, cho nên những người ở ngoài nghĩ rằng anh ta có thể giao tiếp bằng tiếng Trung. Nhưng thật ra anh ta không biết một chữ tiếng Trung nào. Searle kết luận, giống như anh ta, một máy tính sẽ không bao giờ thực sự suy nghĩ hoặc hiểu. Điều tốt nhất mà các nhà nghiên cứu sẽ có được từ những nỗ lực trong kỹ nghệ đảo ngược bộ não là một mô phỏng tinh vi. Và các hệ thống AGI sẽ đạt được những kết quả máy móc tương tự.
Searle không phải là người duy nhất tin rằng máy tính sẽ không bao giờ tư duy hoặc có khả năng nhận thức. Nhưng ông gặp nhiều chỉ trích cùng nhiều lời phàn nàn khác nhau. Một số người gièm pha cho rằng ông mắc hội chứng sợ máy tính. Nếu coi mọi thứ trong căn phòng tiếng Trung kể cả người nọ là cả một hệ thống hoàn chỉnh, thì nó “hiểu” đúng tiếng Trung. Điều này cho thấy lập luận của Searle là vòng vo: không bộ phận nào của căn phòng (máy tính) hiểu tiếng Trung, do đó chiếc máy tính này không thể hiểu tiếng Trung.
Bạn có thể áp dụng lập luận của Searle cho con người một cách dễ dàng: chúng ta không có một định nghĩa chính thức cho việc hiểu một ngôn ngữ thực sự là gì, vậy làm sao chúng ta có thể cho rằng con người “hiểu” ngôn ngữ? Chúng ta chỉ quan sát để xác nhận rằng ngôn ngữ là hiểu được. Giống như những người bên ngoài căn phòng của Searle.⦾
Và thực ra, những quá trình của nẵo bộ, thậm chí cả ý thức, thì có gì đặc biệt đến thế? Chỉ vì hiện nay chúng ta chưa hiểu ý thức, không có nghĩa rằng chúng ta sẽ không bao giờ hiểu. Nó chẳng phải là phép màu.
Tuy vậy, tôi đồng ý với Searle và cả những người chỉ trích ông. Searle đã đúng khi nghĩ rằng AGI sẽ không giống chúng ta. Nó sẽ đầy những công
nghệ điện toán mà không ai thực sự hiểu hết quá trình hoạt động. Và những hệ thống máy tính được thiết kế để tạo ra AGI, được gọi là “các kiến trúc nhận thức,” cũng có thể quá phức tạp nên không ai có thể nắm bắt. Nhưng những người chỉ trích Searle cũng đúng khi cho rằng đến một ngày nào đó AGI hoặc ASI có thể suy nghĩ như chúng ta, nếu ngày đó chúng ta còn tồn tại.
Tôi không nghĩ chúng ta sẽ chứng kiến điều đó. Tôi nghĩ trận Waterloo của chúng ta nằm ngay trong tương lai gần, trong AI của ngày mai và trong AGI sẽ xuất hiện trong một hoặc hai thập niên tới. Sự sống sót của chúng ta, nếu có thể, phụ thuộc nhiều thứ, trong đó có việc phát triển được AGI với một số thuộc tính tương tự như sự nhận thức, hiểu biết, thậm chí thân thiện, như con người. Nó đòi hỏi ít nhất là một sự hiểu biết tinh tế về máy móc thông minh, để không có những điều bất ngờ.
Hãy trở lại với một định nghĩa thông thường về Singularity, được gọi là “technological Singularity” – Điểm kỳ dị trong tiến trình công nghệ. Nó dùng để chỉ một thời kỳ lịch sử khi con người chúng ta chia sẻ hành tinh này với những thứ thông minh hơn mình. Ray Kurzweil đề xuất rằng chúng ta sẽ hợp nhất với máy móc, duy trì sự tồn tại của mình. Những người khác thì cho rằng máy móc sẽ trợ giúp đời sống con người, nhưng chúng ta sẽ tiếp tục sống theo cách hiện nay, không phải như những cyborg nửa người-nửa máy. Và một số khác, như tôi, nghĩ rằng tương lai thuộc về những cỗ máy.
Viện nghiên cứu Trí thông minh Máy tính đã được thành lập để bảo đảm rằng cho dù những hậu duệ của chúng ta có dạng thế nào đi nữa, thì những giá trị của chúng ta vẫn sẽ được bảo tồn.
Trên căn hộ cao cấp tại San Francisco, Vassar nói với tôi: “Chúng tôi đặt cược vào việc chuyển tải các giá trị nhân văn đến những người thừa kế của nhân loại. Và qua họ, tới vũ trụ.”
Đối với MIRI, AGI đầu tiên ra khỏi hộp sẽ phải an toàn, và mang giá trị nhân văn đến với những hậu duệ của loài người dù họ ở trong bất cứ hình hài nào. Nếu AGI không an toàn, con người và những gì con người trân quý sẽ bị xóa sổ. Và đây không chỉ đơn thuần là tương lai của Trái đất. Như Vassar đã nói với tôi: “Sứ mệnh của MIRI là làm cho điểm kỳ dị công nghệ xảy ra theo con đường tốt đẹp nhất có thể, để mang đến một tương lai tươi sáng nhất cho vũ trụ này.”
Cái kết cục tốt đẹp của vũ trụ đó, nó sẽ như thế nào?
Qua khung cửa sổ rộng, Vassar ngắm nhìn giao thông giờ cao điểm đang bắt đầu dồn ứ trên cây cầu sắt dẫn đến Oakland. Tương lai ở một nơi nào đó tận bên kia chân trời. Trong đầu anh, siêu trí tuệ nhân tạo đã thoát khỏi chúng ta. Nó đã thuộc địa hóa hệ Mặt trời, rồi cả hệ Ngân hà. Giờ đây nó đang tái định dạng toàn vũ trụ bằng những dự án xây dựng siêu khổng lồ, và trở thành một thứ gì đó quá xa lạ so với tầm hiểu biết của chúng ta.
Trong tương lai đó, anh nói với tôi, cả vũ trụ này trở thành một máy tính hoặc bộ óc, nó vượt xa tầm hiểu biết của chúng ta như một con tàu vũ trụ so với loài sán dẹp. Kurzweil viết rằng đây là định mệnh của vũ trụ.8 Những người khác đồng ý, nhưng tin rằng với sự phát triển liều lĩnh các AI cao cấp, chúng ta sẽ chắc chắn hủy diệt chính mình cũng như các thực thể sống khác trong vũ trụ. Cũng như việc ASI không căm ghét hoặc yêu quý chúng ta, nó sẽ không có tình cảm gì đối với các sinh vật khác trong vũ
trụ này. Cuộc tìm kiếm AGI của chúng ta phải chăng chính là khởi điểm của một bệnh dịch tầm cỡ Ngân hà?
Khí rời căn hộ của Vassar, tôi tự hỏi điều gì sẽ ngăn cản viễn cảnh mạt thế này trở thành hiện thực. Cái gì sẽ ngăn chặn thứ AGI hủy diệt này? Hơn nữa, liệu có những lỗ hổng trong thuyết mạt thế này?
Tất nhiên, những người xây dựng AI và AGI có thể làm cho nó “thân thiện,” để bất kỳ thứ gì tiến hóa từ AGI đầu tiên sẽ không hủy diệt chúng ta và những sinh vật khác trong vũ trụ. Hoặc, chúng ta có thể đã sai về những khả năng và “động cơ” của AGI, và nỗi lo về cuộc chinh phạt vũ trụ của nó có thể là không cần thiết.
Có lẽ AI không thể phát triển thành AGI và hơn thế, hoặc có lẽ có những lý do để nghĩ rằng nó sẽ xảy ra theo một chiều hướng khác và dễ quản lý hơn những gì chúng ta hiện đang nghĩ. Tóm lại, tôi muốn biết điều gì có thể đặt chúng ta vào một hành trình đến tương lai an toàn hơn.
Tôi dự định hỏi chuyện người tạo ra Thí nghiệm chiếc hộp AI, Eliezer Yudkowsky. Ngoài việc tạo ra thí nghiệm đó, tôi cũng nghe nói ông hiểu nhiều về AI Thân thiện hơn bất cứ ai trên thế giới.
4
CÁCH KHÓ KHĂN
Ngoại trừ những hậu quả của công nghệ nano, trong tất cả những loại thảm họa trên thế giới, không có gì sánh được với AGI.
— Eliezer Yudkowsky
Nhà nghiên cứu, Viện Nghiên cứu Trí thông minh Máy tính
Thung lũng Silicon gồm 14 thành phố “chính thức” và 25 trường đại học chuyên về toán và kỹ thuật cùng với các khuôn viên mà chúng tọa lạc trong đó. Những công ty phần mềm, bán dẫn và Internet ở đây đã tạo nên giai đoạn gần nhất của cuộc chạy đua công nghệ, bắt đầu với việc sản xuất radio vào đầu thế kỷ 20. Thung lũng Silicon thu hút ⅓ số vốn đầu tư mạo hiểm của Hoa Kỳ. Nó có tỉ lệ công nhân/dân số làm việc trong ngành công nghệ cao nhất các thành phố Hoa Kỳ, và họ cũng được trả lương cao nhất. Thung lũng Silicon là nơi tập trung nhiều nhất các triệu phú và tỉ phú Mỹ.
Tại đây, nơi trung tâm của công nghệ toàn cầu, với thiết bị GPS trong xe thuê và một cái khác trong iPhone, tôi lái xe tới nhà Eliezer Yudkowsky theo kiểu cũ, với các chỉ dẫn viết tay. Để bảo vệ sự riêng tư của mình,
Yudkowsky đã gửi các chỉ dẫn này qua email cho tôi và yêu cầu tôi không được chia sẻ chúng hoặc địa chỉ email của ông. Ông không cho tôi số điện thoại.
Năm 33 tuổi, Yudkowsky, đồng sáng lập và nhà nghiên cứu của MIRI, đã viết về những mối nguy của AI nhiều hơn bất kỳ ai khác. Khi theo đuổi sự nghiệp này vào khoảng hơn một thập niên trước, ông là một trong số rất ít người coi mối nguy của AI là sự nghiệp đời mình. Và tuy không lập các lời thề chính thức, nhưng ông đã hy sinh các hoạt động có thể khiến mình bị xao lãng mục tiêu. Ông không hút thuốc, không uống rượu, không dùng chất kích thích. Ông ít giao thiệp. Ông từ bỏ việc đọc sách giải trí từ nhiều năm trước. Ông không thích các cuộc phỏng vấn, và nếu có thì ông thích trả lời qua Skype với tối đa 30 phút. Là một người vô thần (một quy luật không có ngoại lệ trong giới chuyên gia AI), nên ông không phí phạm thời giờ ở nhà thờ hoặc đền miếu. Ông không có con cái, dù thích trẻ con, và nghĩ rằng những người không chuẩn bị trước cho việc đông lạnh con mình là những bậc cha mẹ tồi.⦾
Nghịch lý ở chỗ, là một người vốn rất coi trọng sự riêng tư, nhưng Yudkowsky lại đưa cả cuộc sống riêng của mình lên mạng. Trong lần đầu tiên dò theo dấu, tôi đã tìm được ông cùng với những niềm đam mê sâu kín nhất của mình trong một góc khuất của Internet, nơi có những cuộc thảo luận về thuyết duy lý và thảm họa. Nếu bạn đang suy nghĩ về AI phá hoại, hãy để những ý tưởng của Yudkowsky có chỗ trong cuộc sống của bạn.
Sự hiện diện của ông ở khắp nơi khiến tôi biết được khi ông 19 tuổi, tại thành phố Chicago quê ông, Yehuda em trai ông đã tự tử. Qua những bài dài ông viết trên mạng, tôi cảm nhận vết thương của Yudkowsky một thập niên sau dường như vẫn còn mới.2 Tôi biết được sau khi bỏ học hồi lớp 8,
ông đã tự học toán, logic, lịch sử khoa học, và bất cứ thứ gì ông cảm thấy về cơ bản là “cần thiết.” Những kỹ năng khác mà ông có được bao gồm khả năng nói chuyện lôi cuốn, viết những đoạn văn tối nghĩa và thường là buồn cười, kiểu như:
Tôi là một người rất hâm mộ nhạc Bach, và tin rằng tốt nhất nó nên được trình diễn theo phong cách nhạc điện tử techno với những nhịp trống cực lớn, theo kiểu Bach muốn.3
Yudkowsky là một người hối hả, vì công việc của ông sẽ kết thúc vào thời điểm có ai đó tạo ra được AGI. Nếu các nhà nghiên cứu xây dựng nó với những cơ chế an toàn phù hợp theo ý tưởng của Yudkowsky, ông có thể sẽ cứu được nhân loại và có lẽ hơn thế nữa. Nhưng nếu một sự bùng nổ trí thông minh xảy ra mà Yudkowsky vẫn chưa tìm được cách bổ sung các cơ chế an toàn, có nhiều khả năng tất cả chúng ta sẽ trở thành đống nhầy nhụa, và cả vũ trụ cũng vậy. Điều đó đặt Yudkowsky vào chính trung tâm vũ trụ học của ông.
Tôi đến để biết thêm về AI thân thiện, một thuật ngữ ông đặt ra. Theo Yudkowsky, AI thân thiện là loại AI sẽ bảo tồn nhân loại và những giá trị của chúng ta mãi mãi. Nó sẽ không tàn sát loài người hoặc lây lan khắp vũ trụ như một bệnh dịch vũ trụ sẽ nuốt gọn các hành tinh.
Nhưng AI thân thiện là gì? Làm thế nào để bạn tạo ra nó?
Tôi cũng muốn nghe về Thí nghiệm chiếc hộp AI. Tôi đặc biệt muốn biết bằng cách nào mà ông thuyết phục được Người giữ cửa thả mình ra, khi ông đóng vai AGI. Một ngày nào đó, tôi mong rằng bạn, hoặc một ai đó bạn quen, hoặc một ai đó quen một ai đó quen bạn, sẽ ở vị trí của Người
giữ cửa. Họ cần phải biết mình đang đối đầu với cái gì, và làm thế nào để cưỡng lại nó. Yudkowsky có thể sẽ biết.
• • •
Căn hộ của Yudkowsky nằm cuối dãy nhà hai tầng hình móng ngựa với một hồ bơi và một thác nước chạy điện ở sân trung tâm. Bên trong, căn hộ của ông sạch bóng và thông thoáng. Một máy tính để bàn và màn hình choán lấy khu vực ăn sáng, nơi ông có thể ngồi trên một cái ghế đệm cao kiểu quán bar để nhìn ra ngoài sân. Ông viết các tác phẩm của mình ở đó.
Yudkowsky cao gần một mét tám và phát tướng – đầy đặn nhưng chưa đến mức béo. Cách ăn nói nhẹ nhàng, gần gũi của ông là một sự thay đổi đáng mừng so với những email một dòng ngắn gọn vốn là sợi dây mỏng manh kết nối chúng tôi.
Chúng tôi ngồi trên hai cái divan đối diện nhau. Tôi kể với Yudkowsky nỗi lo ngại chính của mình về AGI, rằng hiện không có công nghệ nào lập trình được những thứ phức tạp và không rõ ràng như đạo đức hoặc tính thân thiện. Chúng ta sẽ có một cỗ máy rất giỏi trong việc giải quyết các vấn đề, học hỏi, cư xử phù hợp, và có kiến thức về đời sống. Chúng ta nghĩ nó sẽ giống con người. Nhưng đó là một sai lầm nghiêm trọng.
Yudkowsky đồng ý. “Nếu những nhà lập trình không thực sự giỏi giang và cẩn trọng trong việc xây dựng AI thì tôi sẽ chờ đợi kết quả là một thứ vô cùng xa lạ. Và đây là phần đáng sợ. Cũng như việc bấm chính xác 9 trên 10 chữ số trong số điện thoạỉ của tôi không kết nối bạn đến với ai đó giống tôi 90%, nếu bạn cố gắng xây dựng một hệ thống AI và bạn làm điều đó đúng 90%, kết quả không phải là 90% tốt đẹp.”
Thực tế, kết quả là 100% tồi tệ. Yudkowsky so sánh, ô tô được làm ra không phải để giết bạn, nhưng tai nạn giao thông là một hệ quả phụ của việc chế tạo ô tô. AI cũng tương tự như vậy. Nó không ghét bạn, nhưng bạn được cấu thành từ những nguyên tử mà nó có thể sử dụng vào việc khác, và nó sẽ làm thế, Yudkowsky nói, “… nó sẽ có xu hướng chống lại bất cứ cố gắng nào của bạn để giữ lại những nguyên tử đó cho riêng mình.” Do đó, một hệ quả phụ của việc lập trình thiếu suy nghĩ là AI thành phẩm sẽ có thái độ khó chịu về những nguyên tử của bạn.
Và cả công chúng lẫn các nhà phát triển AI đều không nhìn thấy sự nguy hiểm cận kề cho đến khi quá muộn.
“Có một xu hướng cho rằng những người tử tế sẽ tạo ra AI tốt, và những người xấu sẽ tạo ra AI xấu. Đó không phải là nguồn gốc của vấn đề. Căn nguyên nằm ở chỗ ngay cả những người tốt muốn tạo ra AI cũng không quan tâm nhiều đến tính thân thiện của AI. Bản thân họ nghĩ rằng nếu như họ muốn những điều tốt đẹp, thì AI mà họ tạo ra cũng sẽ như vậy, và điều này không đúng. Thật ra đây là một vấn đề toán học và kỹ thuật rất khó khăn. Tôi nghĩ rằng hầu hết họ đều đơn giản là không đủ giỏi trong việc suy nghĩ về những ý tưởng khó chịu. Họ bắt đầu mà không hề nghĩ rằng ‘AI thân thiện là một vấn đề sống còn.’ ”
Yudkowsky nói rằng các nhà chế tạo AI bị tiêm nhiễm trong đầu cái ý tưởng về một tương lai sung sướng đẹp đẽ với sự trợ giúp của AI. Họ luôn nghĩ về nó kể từ những ngày đầu tiên họ lập trình.
“Họ không muốn nghe bất cứ thứ gì mâu thuẫn với nó. Vì thế nếu bạn nói với họ về tính không thân thiện của AI, họ sẽ chẳng để tâm. Giống như thành ngữ cổ: phần lớn những chuyện tồi tệ xảy ra do những người muốn
trở nên quan trọng. Nhiều kẻ tham vọng thấy chuyện mình sẽ không làm nên trò trống gì trong đời là đáng sợ hơn nhiều so với việc làm cả thế giới diệt vong. Tất cả những người tin rằng mình sẽ đi vào sử sách qua dự án AI của họ mà tôi đã gặp đều như vậy.”4
Những nhà chế tạo AI đó không phải là những nhà khoa học điên rồ hoặc những người quá khác biệt với bạn và tôi – bạn sẽ còn gặp nhiều trong cuốn sách này. Nhưng hãy nhớ lại thành kiến có sẵn từ Chương 2. Khi đối diện với một quyết định, con người sẽ chọn lựa chọn gần nhất, lựa chọn kịch tính, hay lựa chọn đứng đằng trước hoặc đứng trung tâm. Bị AI xóa sổ nhìn chung không phải là một lựa chọn có sẵn với các nhà chế tạo AI. Nó không sẵn có như là chuyện đột phá trong lĩnh vực của họ, nổi danh, công bố nghiên cứu, trở nên giàu có, v.v…
Thực tế là không nhiều nhà chế tạo AI, ngược với các nhà lý thuyết AI, quan tâm đến việc xây dựng AI thân thiện. Trừ một ngoại lệ, không ai trong số hơn chục nhà chế tạo AI mà tôi đã nói chuyện lo lắng đến mức nghiên cứu AI thân thiện hoặc những biện pháp phòng thủ khác. Có lẽ các nhà lý thuyết đã lo ngại quá mức, hoặc có lẽ vấn đề của các nhà chế tạo là không biết cái họ chưa biết. Trong một bài báo online được đọc nhiều, Yudkowsky đã nói thế này:
Loài người xuất hiện nhờ chọn lọc tự nhiên, nó vận hành bằng cách giữ lại một cách không ngẫu nhiên những đột biến ngẫu nhiên. Một con đường dẫn tới thảm họa toàn cầu – xin gửi tới những ai đang ấn nút mà không biết cái nút đó có tính năng gì – đó là trí tuệ nhân tạo sẽ đến qua sự đột biến tương tự của các thuật toán, khi mà các nhà
nghiên cứu không hiểu một cách sâu sắc toàn hệ thống hoạt động ra sao. [phần chữ nghiêng là của tôi]
Không biết xây dựng AI thân thiện như thế nào, bản thân nó không phải là tai họa… Tai họa là ở chỗ tin rằng AI sẽ thân thiện, đó là con đường hiển nhiên dẫn đến thảm họa toàn cầu.5
Giả định rằng AI cấp độ con người (AGI) sẽ thân thiện là sai, vì nhiều lý do. Giả định đó càng nguy hiểm hơn sau khi trí thông minh của AGI thần tốc vượt qua chúng ta, trở thành ASI – siêu trí tuệ nhân tạo. Vậy làm thế nào ta có thể tạo ra AI thân thiện? Hoặc liệu ta có thể áp đặt sự thân thiện lên AI cao cấp sau khi nó đã được chế tạo xong? Yudkowsky đã viết một chuyên luận online dài cỡ một cuốn sách về những câu hỏi trên với nhan đề Creating Friendly AI: The Analysis and Design of Benevolent Goal Architectures (Chế tạo AI thân thiện: Phân tích và thiết kế những kiến trúc hướng thiện). AI thân thiện là một đối tượng quan trọng, nhưng phức tạp đến nỗi nó gây khó chịu cho cả người đề xướng chính, vốn từng nói về nó: “… chỉ cần một sai sót nhỏ là đủ để cả một chuỗi lập luận trở nên vô giá trị.”6
Hãy bắt đầu với một định nghĩa đơn giản. AI thân thiện là AI có ảnh hưởng tích cực thay vì tiêu cực đến loài người. AI thân thiện theo đuổi các mục tiêu, và nó sẽ hành động để đạt được các mục tiêu ấỵ.7 Để mô tả thành
công của một AI trong việc đạt mục tiêu, các nhà lý thuyết sử dụng một thuật ngữ mượn từ kinh tế học: độ thỏa dụng. Như bạn có thể đã biết, từ những quy luật cơ bản của kinh tế học, người tiêu dùng với hành vi duy lý tìm kiếm sự thỏa dụng tối đa bằng cách tiêu tiền của mình theo cách khiến họ thỏa mãn nhất. Nói chung với một AI, sự thỏa mãn đến từ việc đạt các
mục tiêu, và một hành động đưa nó đến gần các mục tiêu hơn là một hành động có “độ thỏa dụng” cao.
Ngoài sự thỏa mãn mục tiêu, giá trị và sự ưu đãi có thể được thêm vào định nghĩa về sự thỏa dụng của AI, gọi là “hàm thỏa dụng” của AI. Thân thiện với con người là một trong những giá trị mà chúng ta muốn AI có. Để cho dù mục tiêu của nó có là gì – từ chơi cờ cho đến lái xe – thì bảo tồn các giá trị nhân văn (và bản thân con người) phải là một phần cốt lõi trong mã nguồn của nó.
Thân thiện ở đây không có nghĩa là thân thiện kiểu như Mister Rogers⦾ mặc dù nếu vậy cũng không sao. Nó nghĩa là AI không được có ác ý hoặc vô cảm đối với con người, mãi mãi, bất kỳ các mục tiêu của nó là gì hoặc nó đã tự cải tiến bao lần. AI đó phải có một sự thấu hiểu sâu sắc về bản chất con người, nó sẽ không làm hại con người bằng những kiểu lách luật tương tự các hệ quả không tiên liệu trước như trong trường hợp Ba định luật về robot của Asimov. Nói đơn giản, chúng ta không muốn một AI phục vụ cho mục tiêu ngắn hạn – hãy cứu chúng tôi khỏi nạn đói, hoặc làm điều đó với một giải pháp bất lợi về dài hạn – nướng tất cả gà trên Trái đất, hoặc làm điều đó với một giải pháp mà chúng ta không chấp nhận được – giết hết những người vừa ăn xong.
Như một ví dụ để làm rõ cái gọi là các hệ quả không tiên liệu trước, nhà đạo đức học Nick Bostrom của Đại học Oxford giới thiệu một giả định “tối đa hóa số lượng kẹp giấy.” Trong kịch bản của Bostrom, một siêu trí tuệ nhân tạo được lập trình một cách thiếu suy nghĩ được giao việc sản xuất kẹp giấy, nó làm chính xác nhiệm vụ mà không suy nghĩ gì đến các giá trị nhân văn. Mọi chuyện trở nên bung bét vì nó định hướng công việc theo kiểu “đầu tiên, biến đổi toàn bộ Trái đất thành phương tiện sản xuất kẹp
giấy, sau đó sẽ đến các hành tinh khác.”8 AI thân thiện sẽ chỉ làm số lượng kẹp giấy lớn nhất có thể mà vẫn không ảnh hưởng đến các giá trị nhân văn.
Một phẩm chất khác của AI thân thiện là phải tránh các giá trị giáo điều. Những thứ chúng ta cho là tốt sẽ thay đổi với thời gian, và bất cứ một AI nào liên quan đến sự bình yên hạnh phúc của con người đều phải có khả năng thay đổi theo. Nếu hàm thỏa dụng của một AI phục vụ cho việc bảo tồn các tiêu chí của phần đông những người châu Âu sống vào năm 1700 không được cập nhật theo thời gian, thì đến thế kỷ 21 nó sẽ kết nối hạnh phúc và no ấm của chúng ta với các giá trị cổ xưa như sự phân biệt chủng tộc, chiếm hữu nô lệ, bất bình đẳng giới, giày phải có khóa cài, và tệ hơn nữa. Chúng ta không muốn khóa chặt những giá trị nhất định vào AI thân thiện. Chúng ta muốn một hệ thống các giá trị có khả năng tiến hóa cùng con người.9
Yudkowsky đã nghĩ ra một cái tên cho khả năng tiến hóa các quy tắc tiêu chuẩn này – Ý muốn kết hợp ngoại suy (Coherent Extrapolated Volition: CEV). Một AI với CEV có thể biết trước được cái chúng ta muốn. Và không chỉ là cái chúng ta muốn, mà còn phải là cái chúng ta sẽ muốn nếu chúng ta “biết nhiều hơn, nghĩ nhanh hơn, và vẫn là bản thân mình, nhưng tốt đẹp hơn.”10
CEV sẽ là lời sấm truyền của AI thân thiện. Nó sẽ phải lấy từ chúng ta những giá trị như thể chúng ta là những phiên bản tốt hơn của chính mình, và phải làm điều đó một cách dân chủ để nhân loại không bị các tiêu chuẩn của một số ít người áp chế.
Những điều này có làm bạn hơi hoa mắt? Có lý do tốt để viết về nó. Thứ nhất, tôi đã đưa cho bạn một bản tổng kết ngắn gọn về AI thân thiện và CEV, những khái niệm bạn có thể đọc thêm trên mạng. Thứ hai, toàn bộ chủ đề AI thân thiện này vẫn chưa hoàn thiện và còn mang tính lạc quan. Hiện chưa rõ AI thân thiện có thể biểu thị theo phương diện toán học được không, và vì thế có thể không có cách nào để tạo ra hoặc hợp nhất nó vào các kiến trúc AI hứa hẹn. Nhưng cứ cho là chúng ta có thể đi, vậy tương lai sẽ thế nào?
• • •
Tạm cho rằng một thời gian nữa, tầm 10 đến 40 năm sau, dự án SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics: Hệ thống điện tử dẻo co dãn thích nghi mô phỏng thần kinh) của IBM về kỹ nghệ đảo ngược bộ não đã đơm hoa kết trái. Khởi động vào năm 2008, với gần 30 triệu đô-la tiền vốn từ DARPA, hệ thống của IBM sao chép công nghệ cơ bản của bộ não động vật có vú: nhận cùng lúc hàng ngàn nguồn dữ liệu, tiến hóa các thuật toán xử lý cốt lõi, truy xuất nhận thức, suy nghĩ và hành động. Nó khởi đầu với kích thước não mèo, nhưng to dần lên cỡ não người, và sau đó tiếp tục phát triển.
Để xây dựng nó, các nhà nghiên cứu của SyNAPSE đã tạo ra một “máy tính nhận thức” bao gồm hàng ngàn chip máy tính chạy song song. Tận dụng sự phát triển của công nghệ nano, họ làm các con chip với kích thước 1 micromet vuông. Sau đó hộ xếp chúng trong một quả cầu carbon có kích cỡ một trái bóng rổ, và đổ vào đó hợp kim nhôm gali, một loại kim loại lỏng, để đạt tính dẫn điện tối đa.
Trong khi đó, lớp vỏ chứa nó là một router⦾ không dây cực mạnh liên kết với hàng triệu bộ cảm ứng đặt khắp hành tinh, và kết nối với Internet. Những bộ cảm ứng này lấy dữ liệu từ các camera, micro, máy đo áp lực và nhiệt độ, robot, và các hệ thống tự nhiên – sa mạc, sông băng, sông hồ, đại dương, rừng nguyên sinh. SyNAPSE xử lý thông tin bằng cách tự động học những điểm đặc trưng và những mối quan hệ rút ra từ khối lượng dữ liệu khổng lồ đó. Các chức năng thu được sẽ tạo thành phần cứng mang tính mô phỏng hệ thần kinh và bộ não, tạo ra trí thông minh.
Lúc này, SyNAPSE phản ánh 30 tỉ neuron và 100 ngàn tỉ điểm kết nối của não người, hay còn gọi là các synapse (khớp thần kinh). Nó vượt lên trên bộ não người với xấp xỉ khoảng một triệu tỉ xử lý trong một giây.11
Lần đầu tiên, bộ não người sẽ lùi xuống đứng thứ hai trên danh sách những hệ thống phức tạp nhất trong vũ trụ.
Còn sự thân thiện? Biết rằng “sự thân thiện” phải là phần cốt lõi của bất kỳ hệ thống thông minh nào, nên các nhà chế tạo đã mã hóa các giá trị và tính an toàn vào từng con chip trong hàng triệu con chip của SyNAPSE. Nó sẽ thân thiện ngay từ trong DNA. Giờ đây, khi mà máy tính có khả năng nhận thức trở nên mạnh hơn, nó sẽ ra các quyết định làm thay đổi thế giới – ví dụ làm thế nào để đối phó với AI của những quốc gia khủng bố, để chống lại thảm họa thiên thạch đâm vào Trái đất, để ngăn chặn nước biển dâng, để tăng tốc quá trình phát triển của dược phẩm nano, thứ sẽ chữa được hầu hết các loại bệnh tật.
Với sự hiểu biết sâu sắc về con người, SyNAPSE ngoại suy một cách dễ dàng những gì chúng ta sẽ lựa chọn nếu chúng ta đủ mạnh mẽ và thông minh để tham gia vào những phán quyết cấp vĩ mô này. Trong tương lai,
chúng ta sẽ sống sót qua sự bùng nổ trí thông minh! Hơn thế, chúng ta sẽ thịnh vượng.
Chúa ban phúc lành cho ngươi, AI thân thiện!
• • •
Hiện tại hầu hết (nhưng không phải tất cả) các nhà chế tạo và nhà lý thuyết AI đã nhận ra Ba định luật về robot của Asimov nghĩa là gì – những công cụ để viết tiểu thuyết chứ không phải thứ để sống sót. AI thân thiện có thể là khái niệm tốt nhất mà con người đã nghĩ ra để lên kế hoạch tự cứu mình. Nhưng bên cạnh việc chưa hoàn thành, nó còn có nhiều vấn đề lớn khác.
Thứ nhất, có quá nhiều phe trong cuộc đua AGI. Có quá nhiều tổ chức thuộc quá nhiều nước đang chế tạo AGI và các công nghệ liên quan đến AGI, nên tất cả họ khó có thể đồng thuận để gác lại dự án của mình cho đến khi AI thân thiện được tạo ra, hoặc thêm vào mã nguồn của mình một module thân thiện chính thức nếu có thể tạo ra nó. Và có rất ít tổ chức tham gia đối thoại công khai về sự cần thiết của AI thân thiện.
Một số đấu thủ chính trong ngành AGI như: IBM (với nhiều dự án liên quan tới AGI), Numenta, AGIRI, Vicarious, NELL và ACT-R của Carnegie Mellon, SNERG, LIDA, CYC, và Google. Ít nhất khoảng hơn một chục cái nữa, như SOAR, Novamente, NARS, AIXltl, và Sentience, đang được phát triển với nguồn vốn phập phù hơn. Hàng trăm dự án khác, hoàn toàn hoặc một phần, dành cho AGI tồn tại ở Mỹ và các nước khác, một số ẩn danh, một số được giấu sau “bức màn thép” thời hiện đại của các nước như
Trung Quốc và Israel. DARPA công khai tài trợ cho nhiều dự án liên quan đến AI, nhưng dĩ nhiên nó vẫn tài trợ bí mật cho cả những dự án khác.
Ý tôi là MIRI sẽ khó trở thành tổ chức đầu tiên chế tạo được AGI với tính thân thiện tích hợp sẵn. Và cũng khó xảy ra việc người đầu tiên tạo ra AGI lại nghĩ đến những vấn đề như tính thân thiện. Tuy vậy, có nhiều hơn một cách để chặn AGI không thân thiện. Chủ tịch MIRI Michael Vassar cho tôi biết về một chương trình vươn xa của tổ chức hướng đến các trường đại học danh tiếng và các tổ chức cạnh tranh về toán học. Với một loạt sự kiện “cắm trại duy lý,” MIRI và tổ chức anh em của nó, Trung tâm Duy lý ứng dụng (Center for Applied Rationality: CFAR), hy vọng sẽ đào tạo được những nhà chế tạo và hoạch định chính sách công nghệ AI tương lai có tính kỷ luật trong suy nghĩ duy lý. Khi những thành phần tinh hoa này trưởng thành, họ sẽ sử dụng kiến thức học được ở đây để tránh những cạm bẫy đau đớn nhất của AI.
Kế hoạch này nghe có vẻ viển vông, nhưng MIRI và CFAR đã chạm được vào một yếu tố quan trọng trong mối nguy AI. Singularity đang là xu hướng thời thượng, và những vấn đề của Singularity sẽ thu hút sự chú ý của ngày càng nhiều người nói chung và những người thông minh nói riêng. Một cửa sổ cho sự giáo dục về mối nguy AI đang bắt đầu mở ra. Nhưng bất kỳ kế hoạch nào nhằm tạo ra một ủy ban cố vấn hoặc một thể chế quản lý đối với AI đều đã là quá muộn trong việc chặn đứng các kiểu thảm họa nào đó. Như tôi đã đề cập ở Chương 1, ít nhất 56 nước đang phát triển robot chiến binh. Vào cao trào trong cuộc chiếm đóng Iraq của Mỹ, ba Foster-Miller SWORDS – robot tự hành mang súng máy – đã bị loại khỏi cuộc chiến sau khi nghe đâu chúng đã chĩa súng vào “đồng đội.”12 Năm
2007 tại Nam Phi, một súng máy robot phòng không đã giết chín người lính và làm bị thương 15 người trong một tai nạn kéo dài ⅛ giây.13
Đây không phải là những tình tiết to tát như trong phim Terminator, nhưng sẽ còn nhiều vụ như thế. Khi AI cao cấp trở nên sẵn có, đặc biệt nếu nó được DARPA và các cơ quan tương tự ở các nước khác tài trợ, sẽ không có gì ngăn cản được chuyện người ta cài nó vào các loại robot chiến binh. Thực ra, robot có thể là nền tảng cho việc hữu thể hóa máy móc biết nhận thức để từ đó chế tạo ra các loại AI cao cấp. Khi AI thân thiện ra đời, vì sao một công ty chế tạo robot tư nhân lại muốn cài đặt nó vào những cỗ máy được thiết kế để giết người? Cổ đông sẽ không thích điều này.
Một vấn đề khác của AI thân thiện: liệu tính thân thiện có sống sót được trong sự bùng nổ trí thông minh? Nghĩa là, AI thân thiện sẽ thân thiện ra sao sau khi IQ của nó đã tăng tiến gấp cả ngàn lần? Trong các bài viết và bài giảng của mình, Yudkowsky đã viết một cách ngắn gọn về điều sẽ xảy ra:
Gandhi không muốn giết người. Nếu bạn đưa cho Gandhi một viên thuốc có thể làm ông muốn giết người, ông sẽ từ chối, vì ông hiểu rằng nếu uống vào ông sẽ giết người, và Gandhi hiện tại không muốn giết người. Điều này, về đại thể mà nói, là một tranh luận cho rằng những ý thức đủ cao cấp để thay đổi và nâng cấp bản thân một cách chính xác sẽ có xu hướng bảo tồn những động cơ cốt lõi ban đầu.14
Lý luận này không lọt tai tôi chút nào. Nếu chúng ta không thể biết một thực thể thông minh hơn con người sẽ làm gì, làm sao chúng ta biết liệu nó có giữ được hàm thỏa dụng không, hoặc có giữ được hệ niềm tin cốt lối?
Liệu nó có nghĩ đến việc loại bỏ tính thân thiện áp đặt vào nó khi nó đã thông minh hơn cả ngàn lần?
“Không,” Yudkowsky trả lời khi tôi hỏi. “Nó sẽ trở nên ngàn lần hiệu quả hơn trong việc duy trì hàm thỏa dụng.”
Nhưng nếu nó thông minh hơn chúng ta cả ngàn lần, liệu có xảy ra một sự thay đổi nào ở đây không, mà hiện giờ chúng ta không thể nhìn thấy? Ví dụ, chúng ta chia sẻ nhiều DNA với loài sán dẹp. Nhưng liệu chúng ta có quan tâm đến những mục đích và đạo đức của chúng, ngay cả khi chúng ta có phát hiện ra hàng triệu năm trước sán dẹp đã tạo ra chúng ta, và mang lại cho chúng ta nhiều giá trị? Khi sự ngạc nhiên ban đầu nhạt dần, phải chăng chúng ta vẫn sẽ chỉ làm những thứ mình muốn?
“Đây là một sự lo ngại rất có cơ sở,” Yudkowsky nói. “Nhưng chế tạo AI thân thiện không giống với việc ra lệnh cho con người. Con người có sẵn những mục tiêu riêng, cảm xúc riêng, động lực riêng. Họ có cấu trúc lý luận riêng về những niềm tin đạo đức. Có những điều tồn tại bên trong, chúng vượt lên những chỉ dẫn mà bạn đưa cho họ và chúng quyết định nên chấp nhận hay từ chối. Đối với AI, bạn tạo dựng toàn bộ ý thức đó từ hư vô. Nếu bạn xóa mã của AI đi, cái còn lại chỉ là một máy tính không hoạt động vì nó không có mã để chạy.”
Tôi đáp, “Nếu ngày mai tôi thông minh hơn hôm nay cả ngàn lần, tôi nghĩ tôi sẽ nhìn lại những thứ tôi coi là quan trọng ở hôm nay và thấy mọi sự đã thay đổi. Tôi không tin là những thứ tôi coi trọng hôm qua sẽ còn có ỹ nghĩa đối với trí thông minh mới ngàn lần mạnh hơn của tôi.”
“Anh có thứ cảm xúc đặc thù mọi sự đã thay đổi và anh giả định rằng siêu trí tuệ nhân tạo cũng có.”
Yudkowsky nói. “Đó là thói nhân cách hóa. AI không vận hành như con người. Nó không có cái cảm giác mọi sự đã thay đổi đó.”
Nhưng, ông nói thêm, có một ngoại lệ. Ý thức con người tải lên máy tính. Đó là một con đường khác đến AGI và hơn thế, đôi khi bị nhầm lẫn với kỹ nghệ đảo ngược bộ não. Kỹ nghệ đảo ngược tìm cách thấu hiểu triệt để cơ chế của não người, sau đó biểu thị lại những gì bộ não đã làm trong phần cứng và phần mềm. Kết thúc quá trình đó, bạn có một máy tính với trí thông minh cấp độ con người. Dự án Bộ não Xanh của IBM dự tính sẽ đạt được điều này vào đầu những năm 2020.
Mặt khác, việc tải lên ý thức, còn được gọi là gỉả lập toàn bộ não, là lý thuyết tạo mô hình ý thức con người, như ý thức của bạn, trong một máy tính. Đến cuối quá trình này, bộ não của bạn vẫn còn nguyên (trừ phi như các chuyên gia cảnh báo, quá trình quét và truyền dữ liệu phá hủy nó) nhưng một “bạn” khác biết suy nghĩ, biết xúc cảm đã tồn tại trong máy tính.
“Nếu bạn có một siêu trí tuệ nhân tạo khởi nguồn từ việc tải lên một cá nhân và bắt đầu tự cải tiến rồi trở nên ngày một xa lạ theo thời gian, thì nó có thể sẽ quay trở lại chống đối loài người vì những lý do tương đối giống với những gì anh đang nghĩ.” Yudkowsky nói. “Nhưng loại AI không có nguồn gốc con người thì sẽ không bao giờ trở mặt với anh, bởi nó còn cách xa với nhân tính hơn nhiều. Hầu hết những AI đó vẫn sẽ muốn giết anh, nhưng không phải vì những lý do đó. Toàn bộ viễn cảnh trên của anh chỉ đến từ loại siêu trí tuệ nhân tạo có nguồn gốc con người.”
• • •
"""