Đại học Oxford Oli Scarff / Getty ImagesOxford và Cambridge, hai trường đại học lâu đời nhất ở Anh và là hai trong số những trường lâu đời nhất trên thế giới, đang theo dõi kỹ lưỡng lĩnh vực trí tuệ nhân tạo (AI) đang sôi nổi, vốn được ca ngợi là một công nghệ sẽ mang lại về một cuộc cách mạng công nghiệp mới và thay đổi thế giới như chúng ta đã biết. Trong vài năm qua, mỗi tổ chức hàng thế kỷ đã bơm hàng triệu bảng Anh vào việc nghiên cứu những rủi ro có thể xảy ra với máy móc trong tương lai. Ví dụ, họ có thể đánh bại những người chơi giỏi nhất trên thế giới ở những trò chơi cực kỳ phức tạp như cờ vua và cờ vây, và họ có thể phát hiện các khối u ung thư trong chụp quang tuyến vú nhanh hơn nhiều so với bác sĩ lâm sàng con người có thể làm được. Máy móc cũng có thể phân biệt giữa mèo và chó, hoặc xác định danh tính của một người ngẫu nhiên chỉ bằng cách nhìn vào ảnh khuôn mặt của họ. Họ cũng có thể dịch ngôn ngữ, lái xe ô tô và giữ cho ngôi nhà của bạn ở nhiệt độ thích hợp. Nhưng nói chung, chúng vẫn chưa thông minh bằng những đứa trẻ 7 tuổi bình thường. Vấn đề chính là AI không thể đa nhiệm. Ví dụ, một AI chơi trò chơi chưa thể vẽ một bức tranh. Nói cách khác, AI ngày nay rất "hạn hẹp" về trí thông minh của nó. Tuy nhiên, các nhà khoa học máy tính như Google và Facebook đang hướng tới việc làm cho AI trở nên "tổng quát" hơn trong những năm tới và điều đó khiến một số nhà tư tưởng lớn lo ngại sâu sắc. Gặp gỡ Giáo sư BostromNick Bostrom, một nhà triết học và đa học người Thụy Điển 47 tuổi, đã thành lập Viện Tương lai Nhân loại (FHI) tại Đại học Oxford vào năm 2005 để đánh giá mức độ nguy hiểm của AI và các mối đe dọa tiềm ẩn khác đối với loài người. Trong tiền sảnh chính của viện, các phương trình phức tạp vượt quá khả năng hiểu của hầu hết mọi người được viết nguệch ngoạc trên bảng trắng bên cạnh những từ như "an toàn AI" và "quản trị AI". Các sinh viên chăm chú từ các khoa khác đến và đi khi họ thực hiện các công việc hàng ngày. Thật hiếm khi nhận được cuộc phỏng vấn với Bostrom, một nhà xuyên nhân học tin rằng chúng ta có thể và nên tăng cường cơ thể bằng công nghệ để giúp loại bỏ lão hóa là nguyên nhân gây tử vong. "Tôi khá bảo vệ về thời gian nghiên cứu và suy nghĩ, vì vậy tôi khá Ông nói: “Dị ứng với việc lên lịch quá nhiều cuộc họp. Cao, gầy và cạo râu sạch sẽ, Bostrom đã khiến một số nhà nghiên cứu AI cảm thấy cởi mở khi giải trí với ý tưởng rằng một ngày nào đó trong tương lai không xa, máy móc sẽ là loài chó hàng đầu trên Trái đất. Anh ấy không nói xa về việc ngày đó sẽ diễn ra, nhưng anh ấy nghĩ rằng nó có khả năng đủ gần để chúng ta lo lắng về điều đó. Nhà triết học người Mỹ Nick Bostrom là một người đa kinh và là tác giả của cuốn "Superintelligence." Viện Nhân loại: Nếu và khi máy móc sở hữu trí thông minh nhân tạo cấp độ con người, Bostrom nghĩ rằng chúng có thể nhanh chóng làm cho mình thông minh hơn nữa và trở nên siêu thông minh. Tại thời điểm này, ai cũng đoán được điều gì sẽ xảy ra tiếp theo. Người lạc quan nói rằng những cỗ máy siêu thông minh sẽ giải phóng con người khỏi công việc và cho phép họ sống trong một điều gì đó không tưởng, nơi có vô số thứ mà họ có thể mong muốn. Những người bi quan nói rằng họ sẽ quyết định con người không còn cần thiết nữa và xóa sổ tất cả. Billionare Elon Musk, người có mối quan hệ phức tạp với các nhà nghiên cứu AI, đã giới thiệu cuốn sách "Superintelligence" của Bostrom trên Twitter. https://twitter.com/elonmusk/status/495759307346952192?s=20 Viện của Bostrom đã được hỗ trợ khoảng 20 triệu đô la kể từ khi thành lập. Khoảng 14 triệu đô la trong số đó đến từ Dự án Từ thiện Mở, một tổ chức nghiên cứu và tài trợ có trụ sở tại San Francisco. Phần tiền còn lại đến từ những người như Musk và Hội đồng Nghiên cứu Châu Âu. Tọa lạc trong một tòa nhà sang trọng nằm trên một con đường ngoằn ngoèo ra khỏi phố mua sắm chính của Oxford, viện có rất nhiều nhà toán học, nhà khoa học máy tính, bác sĩ, nhà khoa học thần kinh, triết học, kỹ sư và nhà khoa học chính trị. trà về những gì có thể ở phía trước. Bostrom nói: “Rất nhiều người có một số loại đa dạng và họ thường quan tâm đến nhiều hơn một lĩnh vực. Nhóm FHI đã tăng quy mô từ bốn người lên khoảng 60 người trong những năm qua. Bostrom cho biết: “Trong một năm hoặc một năm rưỡi, chúng tôi sẽ tiếp cận 100 (người). Theo Bostrom, văn hóa tại viện là sự pha trộn giữa học thuật, công ty khởi nghiệp và tổ chức phi chính phủ, dẫn đến một "không gian sáng tạo thú vị của các khả năng", nơi có "ý thức về sứ mệnh và tính cấp bách." Nếu AI bằng cách nào đó trở nên mạnh mẽ hơn nhiều, có ba cách chính mà nó có thể gây hại, theo Bostrom. Đó là: AI có thể làm điều gì đó xấu với con người. Con người có thể làm điều gì đó xấu với nhau bằng cách sử dụng AI và con người có thể làm điều xấu với AI (trong trường hợp này, AI sẽ có một số trạng thái đạo đức). Bostrom nói: “Mỗi danh mục này đều là một nơi hợp lý để mọi thứ có thể xảy ra sai sót. Liên quan đến việc máy móc chống lại con người, Bostrom nói rằng nếu AI trở nên thực sự mạnh mẽ thì "có nguy cơ tiềm ẩn từ chính AI rằng nó làm điều gì đó khác với bất kỳ ai có ý định sau đó có thể gây bất lợi." con người với AI, đã có tiền lệ ở đó vì con người đã sử dụng những khám phá công nghệ khác cho mục đích chiến tranh hoặc áp bức. Hãy xem các vụ ném bom nguyên tử ở Hiroshima và Nagasaki chẳng hạn. Bostrom nói rằng việc tìm ra cách để giảm nguy cơ điều này xảy ra với AI là rất đáng giá, đồng thời nói thêm rằng nói thì dễ hơn làm. Tôi nghĩ bây giờ không cần phải nhấn mạnh chủ yếu đến những mặt trái của AI nữa.Nick Bostrom Khi được hỏi liệu anh ấy có lo lắng ít nhiều về sự xuất hiện của những cỗ máy siêu thông minh hơn so với khi cuốn sách của anh ấy được xuất bản vào năm 2014 hay không, Bostrom nói rằng các mốc thời gian đã thu hẹp lại. "Tôi Ông cho rằng tiến bộ đã nhanh hơn dự kiến trong sáu năm qua với toàn bộ cuộc cách mạng học sâu và mọi thứ, "ông nói. Khi Bostrom viết cuốn sách, không có nhiều người trên thế giới nghiên cứu nghiêm túc về những nguy cơ tiềm ẩn của AI. Ông nói: “Hiện nay có một lĩnh vực an toàn AI nhỏ nhưng đang phát triển mạnh này với một số nhóm. Mặc dù có khả năng xảy ra sai sót, nhưng Bostrom nói rằng điều quan trọng cần nhớ là AI có những ưu điểm thú vị và anh ấy không muốn bị coi là người dự đoán ngày tận thế. "Tôi nghĩ bây giờ không cần phải làm thế nhấn mạnh chủ yếu đến những mặt trái của AI ", ông nói và nhấn mạnh rằng quan điểm của ông về AI rất phức tạp và đa nghĩa. Bostrom cho biết mục đích của FHI là "áp dụng tư duy cẩn thận vào những câu hỏi lớn cho nhân loại". Viện không chỉ xem xét năm tới hoặc 10 năm tới, mà còn xem xét mọi thứ một cách vĩnh viễn. Bostrom nói: “AI đã là một mối quan tâm ngay từ đầu và đối với tôi, ý tôi là, từ những năm 90 trở lại đây. “Đó là một trọng tâm lớn, bạn có thể nói gần như bị ám ảnh.” Sự phát triển của công nghệ là một trong những cách hợp lý có thể khiến “tình trạng con người” thay đổi theo quan điểm của Bostrom. AI là một trong những công nghệ đó nhưng có các nhóm tại FHI đang xem xét vấn đề an toàn sinh học (virus, v.v.), công nghệ nano phân tử, công nghệ giám sát, di truyền và công nghệ sinh học (nâng cao con người). Một cảnh trong 'Ex Machina. Nguồn: Universal Pictures | YouTube Khi nói đến AI, FHI có hai nhóm; một người làm công việc kỹ thuật về vấn đề liên kết AI và người kia xem xét các vấn đề quản trị sẽ phát sinh khi trí thông minh máy ngày càng trở nên mạnh mẽ. Nhóm sắp xếp AI đang phát triển các thuật toán và cố gắng tìm ra cách đảm bảo các hệ thống thông minh phức tạp hoạt động như chúng ta dự định. hành xử. Điều đó liên quan đến việc sắp xếp chúng phù hợp với "sở thích của con người", Bostrom nói. Hiện sinh risksRoughly 66 dặm tại Đại học Cambridge, các viện nghiên cứu cũng đang xem xét mối đe dọa đến sự tồn tại của con người, mặc dù thông qua một ống kính hơi khác nhau. Các nhà nghiên cứu tại Trung tâm Nghiên cứu Rủi ro Hiện sinh (CSER) đang đánh giá vũ khí sinh học, đại dịch và tất nhiên là cả AI. Chúng tôi chuyên tâm vào việc nghiên cứu và giảm thiểu các rủi ro có thể dẫn đến sự tuyệt chủng của loài người hoặc sự sụp đổ của nền văn minh. Trung tâm Nghiên cứu về Rủi ro Hiện sinh (CSER) "Một trong những lĩnh vực hoạt động tích cực nhất là về AI", đồng sáng lập CSER cho biết. Lord Martin Rees trong một cuộc phỏng vấn trước đó, Lord Martin Rees, một nhà khoa học vũ trụ và vật lý thiên văn nổi tiếng, đã nghỉ hưu nên vai trò CSER của anh ấy là tự nguyện, nhưng anh ấy vẫn rất tham gia. Theo Rees, điều quan trọng là bất kỳ thuật toán nào quyết định số phận của con người đều có thể được giải thích cho con người. "Nếu bạn bị bỏ tù hoặc bị tước tín dụng bởi một số thuật toán thì bạn có quyền được giải thích để bạn có thể hiểu. Tất nhiên, đó là vấn đề lúc này vì điều đáng chú ý về những thuật toán này như AlphaGo (Google DeepMind's Go thuật toán phát) là những người tạo ra chương trình không hiểu cách nó thực sự hoạt động. Đây là một tình huống khó xử thực sự và họ nhận thức được điều này. "Ý tưởng cho CSER được hình thành vào mùa hè năm 2011 trong một cuộc trò chuyện trong sau chuyến taxi ở Copenhagen giữa Huw Price, nhà đồng sáng lập của Cambridge và Jaan Tallinn, người đồng sáng lập Skype, người có số tiền quyên góp chiếm 7-8% tổng kinh phí của trung tâm và tương đương hàng trăm nghìn bảng Anh. "Tôi đã đi chung taxi với một người đàn ông nghĩ rằng khả năng anh ta chết trong một vụ tai nạn liên quan đến trí tuệ nhân tạo cao ngang ngửa với bệnh tim hoặc ung thư", Price viết về chuyến đi taxi của anh ta với Tallinn. "Tôi chưa bao giờ gặp bất kỳ ai coi đó là nguyên nhân gây lo lắng bức thiết - huống chi là bất kỳ ai có đôi chân vững chắc trên mặt đất trong lĩnh vực kinh doanh phần mềm." Đại học CambridgeGeography Photos / UIG thông qua Getty ImagesCSER đang nghiên cứu cách AI có thể trở thành được sử dụng trong chiến tranh, cũng như phân tích một số mối quan tâm dài hạn mà những người như Bostrom đã viết về. Nó cũng đang xem xét cách AI có thể thúc đẩy khoa học khí hậu và chuỗi cung ứng thực phẩm nông nghiệp. Seán ÓhÉigeartaigh, giám đốc điều hành tại CSER và là đồng nghiệp cũ của Bostrom cho biết: “Chúng tôi cố gắng xem xét cả mặt tích cực và tiêu cực của công nghệ vì mục tiêu thực sự của chúng tôi là làm cho thế giới an toàn hơn”. ÓhÉigeartaigh, người có bằng tiến sĩ về gen của Trinity College Dublin, cho biết CSER hiện đang có ba dự án hợp tác với FHI. Các cố vấn bên ngoài bao gồm Bostrom và Musk, cũng như các chuyên gia AI khác như Stuart Russell và Murray Shanahan của DeepMind. Stephen Hawking quá cố cũng là một cố vấn khi ông còn sống. Tương lai của trí thông minh Trung tâm Leverhulme về Tương lai của Trí tuệ (CFI) được khai trương tại Cambridge vào năm 2016 và ngày nay nó nằm trong cùng một tòa nhà với CSER, cách những chiếc thuyền đánh bóng trên sông Cấm. Tòa nhà không phải là thứ duy nhất mà các trung tâm chia sẻ - nhân viên cũng chồng chéo lên nhau và có rất nhiều nghiên cứu trải dài cả hai bộ phận. Được hỗ trợ với hơn 10 triệu bảng Anh từ Quỹ Leverhulme, trung tâm được thiết kế để hỗ trợ "tư duy đổi mới về bầu trời xanh", theo ÓhÉigeartaigh, đồng phát triển của nó. Có thực sự cần một trung tâm nghiên cứu khác không? ÓhÉigeartaigh nghĩ vậy. Ông nói: “Rõ ràng là sẽ có, cũng như các cơ hội và thách thức kỹ thuật, các chủ đề pháp lý để khám phá, các chủ đề kinh tế, chủ đề khoa học xã hội. "Làm thế nào để chúng tôi đảm bảo rằng trí tuệ nhân tạo mang lại lợi ích cho tất cả mọi người trong xã hội toàn cầu? Bạn xem xét các vấn đề như ai tham gia vào quá trình phát triển? Ai được tư vấn? Cơ chế quản lý hoạt động như thế nào? Làm thế nào để chúng tôi đảm bảo rằng các cộng đồng bị thiệt thòi có tiếng nói? "Mục đích của CFI là thu hút các nhà khoa học máy tính và các chuyên gia học máy làm việc cùng với những người từ chính sách, khoa học xã hội, rủi ro và quản trị, đạo đức, văn hóa, lý thuyết phản biện, v.v. Kết quả là, trung tâm sẽ có thể có cái nhìn bao quát về hàng loạt cơ hội và thách thức mà AI đặt ra cho xã hội. ÓhÉigeartaigh cho biết: “Bằng cách tập hợp những người suy nghĩ về những điều này từ các góc độ khác nhau, chúng tôi có thể tìm ra những tình huống hợp lý có thể đáng để giảm thiểu,” ÓhÉigeartaigh nói.
xe đạp
xe du lịch
xe đạp nha bạn