Lợi ích và nguy cơ của trí tuệ nhân tạo (AI)
Trí tuệ nhân tạo (AI) là trí thông minh được thể hiện bởi máy móc. Trong ngành khoa học máy tính, lĩnh vực nghiên cứu AI định nghĩa bản thân nó là nghiên cứu của các đại lý thông minh: bất cứ thiết bị nào nhận thức được môi trường của nó và thực hiện các hành động tối đa hoá cơ hội thành công ...
Trí tuệ nhân tạo (AI) là trí thông minh được thể hiện bởi máy móc. Trong ngành khoa học máy tính, lĩnh vực nghiên cứu AI định nghĩa bản thân nó là nghiên cứu của các đại lý thông minh: bất cứ thiết bị nào nhận thức được môi trường của nó và thực hiện các hành động tối đa hoá cơ hội thành công của một số mục tiêu. Nói cách khác, thuật ngữ AI được sử dụng khi một cái máy bắt chước các chức năng "nhận thức" mà con người liên kết với các trí tuệ khác của con người, chẳng hạn như "học" và "giải quyết vấn đề" (được gọi là Học máy). Khi máy móc trở nên ngày càng có khả năng, các cơ sở tinh thần từng nghĩ rằng cần có trí thông minh được loại bỏ khỏi định nghĩa. Ví dụ, nhận dạng ký tự quang học không còn được coi là một ví dụ về "trí tuệ nhân tạo", trở thành một công nghệ thông thường. Các khả năng hiện đang được phân loại là AI bao gồm thành công trong việc hiểu được ngôn từ của con người, cạnh tranh ở mức độ cao trong các hệ thống chiến lược (như Chess và Go), tự lái xe, định tuyến thông minh trong các mạng phân phối nội dung và giải thích dữ liệu phức tạp.
TẠI SAO NGHIÊN CỨU AI AN TOÀN? Trong thời gian gần đây, mục tiêu giữ tác động có ích của AI đối với xã hội thúc đẩy nghiên cứu ở nhiều lĩnh vực, từ kinh tế học đến luật pháp đến các chủ đề kỹ thuật như xác minh, tính hợp lệ, an ninh và kiểm soát. Trong trường hợp máy tính xách tay của bạn bị hỏng hoặc bị tấn công, điều quan trọng hơn là hệ thống AI sẽ làm những gì bạn muốn nó làm nếu AI điều khiển chiếc xe, máy bay, máy điều hòa nhịp tim, hệ thống hoặc lưới điện của bạn. Một thách thức ngắn hạn khác là ngăn cản một cuộc chạy đua vũ trang tàn phá vũ khí tự sát chết người.
Về lâu dài, một câu hỏi quan trọng là điều gì sẽ xảy ra nếu AI toàn năng thành công và hệ thống AI trở nên tốt hơn con người ở tất cả các nhiệm vụ nhận thức. Như I.J. Good đã chỉ ra năm 1965, việc thiết kế hệ thống AI thông minh hơn là một nhiệm vụ nhận thức. Một hệ thống như vậy có thể có khả năng tự cải thiện đệ quy, gây ra một sự bùng nổ thông minh và vượt xa trí tuệ của con người. Bằng cách phát minh ra các công nghệ mới mang tính cách mạng, trí tuệ siêu thông minh này có thể giúp chúng ta tiêu diệt chiến tranh, bệnh tật và đói nghèo, và do đó việc tạo ra AI có thể là sự kiện lớn nhất trong lịch sử nhân loại. Tuy nhiên, một số chuyên gia đã bày tỏ mối quan tâm rằng nó cũng có thể là cuối cùng, trừ khi chúng ta học cách sắp xếp các mục tiêu của AI với chúng ta trước khi nó trở nên thông minh.
Có một số người đặt câu hỏi liệu AI toàn năng bao giờ sẽ đạt được, và những người khác nhấn mạnh rằng việc tạo ra siêu thông minh AI có được đảm bảo là có lợi. Tại FLI chúng ta nhận ra cả hai khả năng này, nhưng cũng nhận ra tiềm năng cho một hệ thống trí tuệ nhân tạo vì cố tình hoặc vô ý gây ra những tổn hại lớn. Chúng tôi tin rằng nghiên cứu ngày nay sẽ giúp chúng ta chuẩn bị tốt hơn và ngăn ngừa các hậu quả tiêu cực tiềm ẩn trong tương lai, do đó tận hưởng những lợi ích của AI và tránh được những kết quả sai lầm.
AI CÓ THỂ NGUY HIỂM? Hầu hết các nhà nghiên cứu đều đồng ý rằng một AI thông minh không có khả năng biểu lộ cảm xúc của con người như tình yêu hay thù ghét, và không có lý do gì để mong muốn AI trở nên có chủ ý từ thiện hoặc ác độc. Thay vào đó, khi xem xét làm thế nào AI có thể trở thành một nguy cơ, các chuyên gia nghĩ rằng hai kịch bản rất có thể xảy ra:
AI được lập trình để làm điều gì đó tàn phá: Vũ khí tự trị là hệ thống trí tuệ nhân tạo được lập trình để giết chóc. Trong tay của sai người, những vũ khí này có thể dễ dàng gây ra thương vong lớn. Hơn nữa, một cuộc chạy đua vũ trang bằng tay có thể vô tình dẫn đến một cuộc chiến tranh gây tổn thất lớn. Để tránh bị đối phương cản trở, những vũ khí này sẽ được thiết kế để ngăn cản những khả năng đơn giản như "tắt", do đó con người có thể mất khả năng kiểm soát những tình huống như vậy. Nguy cơ này có thể xảy ra ngay cả ở những trường hợp hẹp, nhưng lại tăng lên khi trí thông minh gia tăng và sự tự chủ gia tăng. AI được lập trình để làm điều gì đó có lợi, nhưng nó phát triển một phương pháp phá hoại để đạt được mục đích của nó: Điều này có thể xảy ra bất cứ khi nào chúng ta không hoàn toàn sắp xếp đúng các mục tiêu của AI với ta. Nếu bạn yêu cầu một chiếc xe thông minh ngoan ngoãn đưa bạn đến sân bay càng nhanh càng tốt, nó có thể khiến bạn bị truy đuổi bởi máy bay trực thăng và bị ói mửa, không phải những gì bạn muốn mà là những gì bạn yêu cầu. Nếu một hệ thống thông minh có nhiệm vụ với một dự án địa chấn đầy tham vọng, nó có thể tàn phá hệ sinh thái của chúng ta như là một phản ứng phụ và xem những nỗ lực của con người để ngăn chặn nó như là một mối đe dọa sẽ gặp phải. Như những ví dụ minh họa, mối quan tâm về AI tiên tiến không phải là xấu nhưng phải có thẩm quyền. Một AI siêu thông minh sẽ cực kỳ tốt trong việc hoàn thành các mục tiêu của nó và nếu những mục tiêu đó không phù hợp với chúng ta, chúng ta có một vấn đề. Có lẽ bạn không phải là một kẻ ác có lòng dũng mãnh, những kẻ dẫm lên kiến xấu xa, nhưng nếu bạn chịu trách nhiệm cho một dự án năng lượng xanh và có một con mương trong khu vực bị ngập, quá tệ đối với kiến. Một mục tiêu chính của nghiên cứu an toàn là không bao giờ đặt nhân loại vào vị trí của những con kiến.
TẠI SAO QUAN TÂM ĐẾN SỰ AN TOÀN CỦA AI? Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates, và nhiều tên tuổi lớn khác trong ngành khoa học và công nghệ gần đây đã bày tỏ sự quan tâm trong giới truyền thông và thông qua các bức thư ngỏ về những nguy cơ do AI gây ra, với sự tham gia của nhiều nhà nghiên cứu về AI. Tại sao chủ đề này lại đột nhiên xuất hiện trong các tiêu đề?
Ý tưởng rằng việc tìm kiếm AI toàn năng cuối cùng sẽ thành công được nghĩ đến như khoa học viễn tưởng, hàng thế kỷ hoặc hơn. Tuy nhiên, nhờ những đột phá gần đây, nhiều mốc quan trọng về AI, được các chuyên gia xem là thập kỷ cách đây chỉ 5 năm, đã được đưa ra, làm cho nhiều chuyên gia nghiêm túc xem xét khả năng của siêu thông minh trong cuộc đời của chúng ta. Mặc dù một số chuyên gia vẫn đoán rằng AI ở mức độ con người phải mất hàng trăm năm nữa, hầu hết các nghiên cứu về AI tại Hội nghị Puerto Rico năm 2015 đã đoán rằng nó sẽ xảy ra trước năm 2060. Vì phải mất nhiều thập kỷ để hoàn thành nghiên cứu an toàn cần thiết, nó cần được bắt đầu thận trọng từ bây giờ.
Vì AI có khả năng trở nên thông minh hơn bất kỳ con người nào, chúng ta không có cách dự đoán nó sẽ hành xử như thế nào. Chúng ta không thể sử dụng các phát triển công nghệ trong quá khứ như là một cơ sở vì chúng ta chưa bao giờ tạo ra bất cứ thứ gì có khả năng, một cách khiêm tốn hoặc vô tình, đánh thức chúng ta. Ví dụ tốt nhất về những gì ta có thể đối mặt có thể là sự tiến hóa của chúng ta. Loài người giờ đây kiểm soát hành tinh, không phải vì chúng ta là người mạnh nhất, nhanh nhất hoặc lớn nhất, nhưng vì chúng ta là người thông minh nhất. Nếu chúng ta không còn là người khôn ngoan nhất, liệu chúng ta có chắc chắn sẽ kiểm soát được không?
Vị trí của FLI là nền văn minh của chúng ta sẽ phát triển miễn là ta giành chiến thắng trong cuộc đua giữa sức mạnh công nghệ ngày càng tăng và trí tuệ mà chúng ta quản lý. Trong trường hợp công nghệ AI, vị trí của FLI là cách tốt nhất để giành chiến thắng trong cuộc chạy đua, không phải là cản trở cuộc đua trước đó, mà là đẩy nhanh tiến độ, thông qua việc hỗ trợ nghiên cứu an toàn về AI.
BÍ ẨN VỀ CÁC RỦI RO CỦA SIÊU NHÂN AI Nhiều nhà nghiên cứu về AI đã quay cuồng khi nhìn thấy dòng tiêu đề này: "Stephen Hawking cảnh báo rằng sự gia tăng của robot có thể là thảm hoạ cho nhân loại". Và như nhiều người đã không thể đếm nổi có bao nhiêu bài báo tương tự như vậy mà họ đã nhìn thấy. Thông thường, những bài báo này được kèm theo một con robot xấu xa mang theo vũ khí, và họ cho rằng chúng ta nên lo lắng về việc những con rôbôt lớn lên và giết chúng ta vì chúng đã trở nên có ý thức và/hoặc điều ác. Theo hướng nhẹ hơn, các bài báo như vậy thực sự khá ấn tượng, bởi vì họ đã tóm tắt ngắn gọn các kịch bản mà các nhà nghiên cứu AI không lo lắng đến. Kịch bản đó kết hợp nhiều quan niệm sai lầm riêng biệt: quan tâm đến ý thức, cái ác, và robot.
Nếu bạn lái xe xuống đường, bạn có trải nghiệm chủ quan về màu sắc, âm thanh... Nhưng xe tự lái có trải nghiệm chủ quan không? Liệu nó có cảm giác như một cái gì đó hoàn toàn là một chiếc xe tự lái? Mặc dù bí ẩn của ý thức là thú vị ở bên trong của nó, nó không liên quan đến nguy cơ AI. Nếu bạn bị va đập bởi một chiếc xe không có driver, nó sẽ không có gì khác biệt nếu bạn cảm thấy có chủ ý. Tương tự như vậy, những gì sẽ ảnh hưởng đến con người là những gì mà AI thông minh làm, chứ không phải là cảm giác chủ quan.
Sự sợ hãi các máy móc biến thành quỷ dữ là một câu chuyện khác. Sự lo lắng thực sự không phải là xấu, mà là có khả năng. Một AI siêu thông minh theo định nghĩa là rất giỏi trong việc đạt được mục tiêu của nó, bất kể nó có thể là gì, vì vậy ta cần phải đảm bảo rằng mục tiêu của AI phù hợp với chúng ta. Con người thường không ghét kiến, nhưng chúng ta thông minh hơn nó - vì vậy nếu chúng ta muốn xây dựng một đập thủy điện và có một cái ổ kiến ở đó, quá tệ cho kiến. Phong trào có lợi-AI muốn tránh đặt nhân loại vào vị trí của những con kiến.
Quan niệm sai lầm về ý thức có liên quan đến huyền thoại rằng máy móc không thể có mục tiêu. Máy có thể có các mục tiêu rõ ràng trong việc thể hiện hành vi định hướng mục tiêu: hành vi của tên lửa đang tìm kiếm nhiệt được giải thích kinh tế nhất như là một mục tiêu để đạt được. Nếu bạn cảm thấy bị đe doạ bởi máy tính có mục tiêu không đúng với những gì bạn mong đợi, thì đó chính là mục đích của nó gây khó khăn cho bạn chứ không phải là máy tính có ý thức và kinh nghiệm ý thức về mục đích. Nếu tên lửa tìm nhiệt đang đuổi theo bạn, có lẽ bạn sẽ không kêu lên: "Tôi không lo lắng, bởi vì máy móc không thể có mục tiêu!"
Tôi thông cảm với Rodney Brooks và những người tiên phong khác, những người cảm thấy bị quỷ quyệt vì những tờ báo lá cải, bởi một số nhà báo dường như gắn với robot và tô điểm cho nhiều bài viết của họ với những con quái vật kim loại xấu xa và đôi mắt sáng đỏ. Trên thực tế, mối quan tâm chính của phong trào AI có lợi là không phải với robot, mà là với bản thân trí thông minh: cụ thể, trí thông minh có mục tiêu không đúng với chúng ta. Điều này làm cho chúng ta gặp rắc rối, trí thông minh siêu nhân không bình đẳng như vậy không cần cơ thể robot, chỉ cần kết nối internet - điều này có thể giúp outsmarting các thị trường tài chính, phát minh ra các nhà nghiên cứu con người, thao túng các nhà lãnh đạo con người và phát triển vũ khí mà chúng ta không thể hiểu được. Ngay cả khi các robot không thể thực hiện được, những người siêu thông minh và siêu giàu có thể dễ dàng trả tiền hoặc vận dụng nhiều con người để vô tình đấu giá nó.
Quan niệm sai lầm về robot có liên quan đến bí ẩn rằng máy móc không thể kiểm soát con người. Thật ra trí tuệ cho phép kiểm soát: con người kiểm soát hổ không phải vì chúng ta mạnh hơn, mà bởi vì chúng ta thông minh hơn. Điều này đồng nghĩa với việc nếu ta nhường lại vị trí thông minh nhất trên hành tinh này, có thể chúng ta cũng phải nhường lại quyền kiểm soát.
NHỮNG CUỘC TRANH LUẬN THÚ VỊ Không lãng phí thời gian vào những quan niệm sai lầm nêu trên cho phép chúng ta tập trung vào những tranh cãi thực sự và thú vị, thậm chí khi cả các chuyên gia không đồng ý. Bạn muốn một tương lai như thế nào? Chúng ta có nên phát triển vũ khí tự sát chết người? Bạn muốn điều gì xảy ra với tự động hóa công việc? Bạn sẽ đưa ra lời khuyên về nghề nghiệp nào cho trẻ em ngày nay? Bạn có thích công việc mới thay thế những cái cũ, hay một xã hội không có việc làm, nơi mọi người đều thích cuộc sống vui chơi giải trí và sự giàu có của máy móc? Bạn có muốn chúng tôi tạo ra cuộc sống siêu việt và lan truyền nó qua vũ trụ của chúng ta không? Chúng ta sẽ kiểm soát các máy thông minh hay nó sẽ kiểm soát ta? Máy thông minh sẽ thay thế chúng ta, hay cùng tồn tại với loài người, hay hợp nhất với loài người? Con người có ý nghĩa gì trong thời đại trí tuệ nhân tạo? Bạn muốn điều đó có ý nghĩa gì, và làm thế nào để chúng ta có thể tạo ra tương lai theo cách đó?
Tham khảo: https://www.project-syndicate.org/commentary/artificial-intelligence-no-singularity-by-margaret-a--boden-2017-02 https://en.wikipedia.org/wiki/Artificial_intelligence https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/