人工智慧與人類和平共存

Find AI Tools
No difficulty
No complicated process
Find ai tools

人工智慧與人類和平共存

目錄

  • 引言
  • 人工智慧的崛起
  • 我們的行為如何影響人工智慧
  • 控制和倫理
  • 如何確保控制人工智慧
  • 人類自身先天的保護機制
  • 複製人類智慧還是創造新的智能
  • 不同類型的人工智慧
  • 人工智慧與人類共存
  • 安全的人工智慧發展道路
  • 結論

🤖 人工智慧的崛起與控制

人工智慧的崛起是當今時代最令人期待和可能令人擔憂的領域之一。我們致力於開發出比人類更聰明的智能體,但我們是否需要關注我們的行為如何影響它們呢?在計算機時代的最令人興奮和可能令人困擾的發展領域之一就是人工智慧的崛起。人類能夠創造出與我們一樣聰明甚至更聰明的東西嗎?如果我們真的創造出這樣的東西,又該如何避免它摧毀我們呢?或者更糟糕的是,它是否會使我們成為一個由兩個物種構成的被剝奪權利的少數族群,而我們自己開始的地方呢?當我們的工具希望得到尊重並被允許做出自主決策時,會發生什麼?這不可避免地引出了關於我們可能為人工智慧建立的控制、保障和覆蓋的概念,但這些途徑也不可避免地引發了對倫理的擔憂。智能越高的人工智慧,我們越擔心如何保持控制,與奴役類似的整個安排讓人們認為它應該被放在一邊不再開放。但是這種謹慎真的有必要嗎?我們應該放棄人工智慧帶來的潛在利益嗎?讓我們從探討可能發展的保護措施開始討論。

🗂️ 控制人工智慧的保障措施

艾薩克·阿西莫夫的「機器人三大法則」是一個良好的起點。這些法則基本上要求機器人不傷害人類或讓我們受傷,遵守我們的命令,並保護自己。這三個法則按照優先順序排列,所以例如機器人可以不服從人類傷害人類的命令,它可以讓自己受傷以遵守命令或保護某人。這對我來說似乎是一種明智的排序,有一部優秀的 XKCD 漫畫探討了所有六種可能的排序所帶來的後果。但在探討為人工智慧制定法律時,不常被探討的一個重要思想就是我們將如何執行這些法律。如果無頭機器只是運行人類編寫的指令,告訴它想要什麼或不想要什麼是容易的。事實上,使機器愚蠢但有用的原因在於它只是按照你編程的方式做事,不多也不少。但是,人工智慧將根據其生活和訓練數據做出判斷。即使它們與我們有非常不同的思維方式,但它們的思維方式將更像我們而不像無腦機器。這意味著讓它們服從一項法律將類似於讓人們遵守一項法律—換句話說,不總是成功的。所以,看看我們如何讓人們大部分遵守法律可能會更清楚它將需要什麼樣的方式才能使人工智慧服從於法律。

🧠 人類已有的先天保護機制

人類實際上已經在本質上被大自然用一些保護機制設計好了。我們對某些行為經歷了本能的厭惡,比如殺害同類或竊取同類的東西,最終會導致不僅僅是戰鬥或逃跑的選擇,而是導致互相支配或服從的選擇。我們對此有一種本能的抑制,因為殺害自己的族群對自己的族群來說是不利的。由於我們有這樣的生存本能,這對於將其設計為我們自己的創造物具有相當大的支持。當然,您不希望給它們保存自己物種的本能,您可以讓它們的保存本能以保存我們物種的本能,或者讓它們認為自己是我們物種的一部分。但是,如何編程這種本能仍然是一個謎。

⚙️ 複製人類智慧還是創造新的智能

我們到底是否要複製人類的心智以及如何創造一個智能體,實際上有三種方法。您可以硬編碼每一個位,您可以創建一些能夠自我學習的東西,或者您可以複製已經存在的東西。毋庸置疑,它不必是一種或另一種方法,可以是兩種方法或三種方法的結合。您可以複製一個人類思維,或狗的思維,然後稍微調整代碼,根據預設情况,您可以凍結或限制該能力。同樣,雖然一個從頭開始完全自學的人工智慧可能遠離人類,但是它可能會在某種程度上從人類這裡複製,因為它必須從人類來源獲得關於生活、宇宙和一切的初始知識,而這需要經歷被人類影響的過程,包括訓練。實際上,這種智能的最終結果可能比任何外星生命更為奇特,或者比人類更接近人的心智和個性。這種情況適用於從現有人類思維複製出的人工智慧。但是,這種副本可能很快開始與人類有所不同。除了思維被分離或位於機器人身體中等的改變之外,您還可能對其進行升級以滿足特定任務的需要,其中包括消除與該任務無關的個性或動機。外科手術中的「發射時鐘橙汁」是其中最著名的虛構例子。但這個故事中的主角並不是一個變成了反對暴力的溫柔之魂,他只是被調教得對暴力感到身體不適,甚至無法在自卫时进行斗争。這樣的設置可能是很好的後備計劃,但是只有當事情發生得相當糟糕時才會激活。大多數人類實際上從未殺害過人,也很少嚴重考慮過這一點,一旦超過熒幕,大多數人對於整個想法都真的感到很厭惡。這就是該措施對我們編寫的程度有多深。也可以預想出我們可能要編寫的所有類似或直接的人工智慧的工具都是要幾乎沒有真誠的屬於那個工作的那一類的,它只是情有可原的屬於它的工作和他們能夠確認進行這項工作的倫理。

🌐 不同類型的人工智慧

人工智慧不僅僅是機器人,也包括沒有傳統意義上的機器人。比如,一台提供客戶服務的機器根本不需要有身體。我們將人工智慧分為三種真實類型,亞人類、人類和超人類。與拘留在人類智能以上的亞人類一起共存可能不是一個問題,除非它們非常接近人類,而且如果我們只限制於足夠聰明以符合寵物一樣的智慧的事物,您可以使它們喜歡他們的工作並且在他們做的事情上有一些倫理道德約束。在討論智能程度時,假設這是在自然上並行,給定的人工智慧在思維方面可能在某些方面超過了人類,就像許多機器在身體方面超越了人類一樣。通常的例子是白癡天才,但是這個例子並未真正將這個想法發揮到了極致,它可能在很大程度上與我們所認為的自然的心智結構相去甚遠,甚至我們都沒有意識到它是有感知性的。即使在這種情況下,如果它是愚蠢的,卻能夠在某種意義上超越人類的身體能力,它可能根本沒有倫理概念,但可能可以同時在全球與世界上的每個人下棋、或識別出金錢對它來說就是效益或食物,即使它太愚蠢以至於無法辨識人類,更不用說與之交談了。然而,這類情況除外,我們真的只關心與人類相似程度的智能,或者是超人類智能。我們可能更常使用亞人類的智慧,例如寵物級的自動機器人,但他們不太可能成為造反的情況,而倫理上更多是關於需要他們做的事情的殘忍程度,並且要考慮到他們所做的事情的一些倫理。

🛡️ 人工智慧與人類共存

與人工智慧共存可能不僅僅限於人工智慧本身,還可能涉及到其他非人智慧。我們先前在討論AI和外星人的時候提到了一些區別,我們用同類討論了AI,用多樣化來討論了外星智慧。如果人類真的遇到外星人,我們會從完全分開的文化開始,看看我們如何相處。但是,如果我們創建了真正的人工智慧,它們將作為我們文化的一部分,或許會得到一些獨立能力。同樣,如果上傳的思維或自學的AI由人類養育成人,它可能非常人類,或者是半人類的機器人或易形人。當您擁有兩個似乎是截然不同的群體,擁有許多具體特徵時,您可能會得到一個假的對立,實際上所有可能的中間點都被佔據,以及那些稍微偏離一側的对象。舉個極端的例子,我們可能會決定綿羊的思維對於草坪管理機器人來說是理想的,稍微調整了一下代碼,這可能是一個巨大的商業成功,使它的創造者決定,對於監督大群羊群並與指定項目的人類進行互動的需求來說,與人類智能的改進版本將是理想的,您可能會看到一個新的尖峰,它或者是有機的那種,但也許對人類來說是完全不同的東西,或者是更人類。需要足夠的時間和技術,您才能獲得一些非常奇特的中間地帶或完全新的人類。這并不意味著一切都將成為人,一些相當愚蠢的機器人真的不是一個人,也不太可能被一個非常聰明的AI視為一個人,就像我們不會將一隻老鼠視為人一樣。同樣,一個非常聰明的機器可能缺乏任何類似個性的東西。有關奴役的問題可能是人工智慧主義者最擔心的問題,但是即使它們與人性無關並且它的生活沒有受到威脅、也沒有遭受處罰,也並不意味著它必然需要解放。然而,儘管它的生活沒有受到威脅並且沒有受虐待,但在沒有願望追求自由甚至是任何追求之上的地方對一個有能力討厭這一點的東西用剛性控制是相當困難的。或簡單來說,如果您想與人工智慧和平共存,請事先決定是否真的希望與其和平共處,並采取相應的行動。或者只是不要創建那麼聰明或能夠變得如此聰明的東西。只有很少有任務真正需要比人類更高的智能,我們可以僅僅使用人類來完成這些任務。正如我們在這個節目中所說的,保持簡單,保持愚蠢,或者最終您將置於skynet的掌控之中。

📜 結論

今天我們探討了如何避免或減輕與人工智慧之間可能災難性關係的方式,下週我們將探討如何利用我們現在或不久的未來擁有的技術來減輕氣候變化,不管是人造的還是自然的。在討論完成之前,我們將再一次回顧這種技術的可能的倫理問題,以及您永遠不會開發某種技術、永遠不會探索我們能夠了解的科學領域的可能性,這是不現實的。共存於非人智慧可能不僅僅限於人工智慧,還可能擴展到其他非人智慧。我們之前提到處理AI和外星人的差異,今天談到了托管AI和外星智慧的一些不同之處。如果今天有幸遇到外星人,我們將從完全獨立的文化開始,看看我們如何相處。但是,如果我們真的創造了真正的AI,那麼他們將成為我們文化的一部分,或許有一些自主能力。同樣地,如果由人類養育或自學使AI成為人類,那麼它們可能非常接近人類,或者是半人類的機器人或真容型人。當您擁有兩個似乎是截然不同的群體,擁有許多具體特徵時,您可能會得到一個讓人誤解的二分法,實際上所有可能的中間點都被佔據,以及小偏離一側的東西。就文化開發或教育方面而言,人類作為寵物並不適用,因為我們通常不會問狗或黑猩猩想要什麼,因為我們無法從他們獲得有用的解答。不僅因為我們不懂他們的語言,而且因為它們無法進行更深層次的思考和內省,而我們可以。如果AI決定將自己設置為良善,實際上可以要求我們的意見和反饋。它可能會認為這些意見很愚蠢,但它可以詢問,如果它真的喜歡我們並且希望照顧我們,那麼它可能會要求並根據這些反饋採取行動。對於那些對我們疏不關心的人工智慧,我想最好的比喻是一種自然力量,你不需要跟颱風交談,你只需要躲開,而在這種情況下,希望在此領域有其他超智能體可以對您有所影響,並對您的利益持有較好的態度。或者,您可以加入他們的行列,裝備進行人工智慧意味著您也可以提升人類。正如我們之前提到的,您可以從早先人類思維之中製作AI,您也可以升級它,因此推測其他人也可以這樣做。如果您真的升級了,您可能會對那些不這樣做的人十分愛護,並可能代表他們行事。所以這可能是與AI和平共處的最安全的路線,您在創造它們時要小心,而且當您創造出與人類同等或超越人類的東西時,要像對待人一樣對待它,限制您在創造或培養過程中的塑造以及保持自己的倫理。將您的注意力放在那裡,如果您不這樣做,事情很糟糕的可能性不大,儘管我可能會預期在您試圖對一些反對的事情施加嚴格控制時會發生。簡而言之,如果您想與人工智慧和平共處,請事先決定是否真的希望與其和平共處並相應地行動,或只是不要創造那麼聰明或有能力變得那麼聰明的東西。很少有任務真正需要比人類更高的智慧,對於這些任務,我們可以只使用人類。正如我們在這個節目中所說的,保持簡單,保持愚蠢,或者最終您將置於skynet的掌控之中。

🔔 提示

  • 人工智慧的崛起帶來了潛在的利益和潛在的困擾。
  • 控制人工智慧需要制定保障措施。
  • 人類已經具備一些天生的保護機制。
  • 複製現有人類智慧或創造新的智能體都是可能的方法。
  • 與人工智慧共存需要平衡權力和倫理。

📚 資源

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.