AI生成內容的隱憂:比你想像中更危險?
近來,關於生成式人工智慧(generative AI)的危險性已經有許多討論,但我所看到的所有論點都可以歸納為三個簡單的議論,並沒有反映我認為最大的風險。在進入生成式人工智慧的隱藏危險之前,先來總結一下最近流傳的常見警告:
首先是對就業市場的風險:生成式人工智慧現在可以生成人類水平的作品,包括藝術作品、文章和科學報告等。這將極大地影響就業市場,但我相信這是一個可管理的風險,因為職位定義將適應人工智慧的能力。這段時間可能會很痛苦,但這與前幾代人適應其他節省勞動力技術的過程並沒有太大不同。
第二個風險是虛假內容的風險:生成式人工智慧現在可以大規模地生成人類質量的文本、文章、論文和影像,包括虛假和誤導性的內容。雖然虛假內容並不是一個新問題,但生成式人工智慧將使其大規模地生產,這是一個重大的風險,但是它是可管理的。因為可以通過(a)強制實施水印技術,以在創建時識別人工智慧內容,或者(b)使用訓練有素的基於人工智慧的對抗措施來識別人工智慧內容。
第三個風險是有意識機器的風險:許多研究人員擔心,人工智慧系統將被擴展到一個程度,其中它們會開始“有自己的意志”,並採取與人類利益衝突甚至威脅人類生存的行動。我認為這是一個真正的長期風險。實際上,幾年前一本名為《Arrival Mind》的“成人繪本”,探討了這種風險的簡單方法。但是,我不認為當前的人工智慧系統會自發地變得有意識,除非對技術進行重大結構性改進。因此,雖然這是行業應該關注的一個真正的風險,但它並不是我們面臨的最迫切的風險。
那麼,我們最關注的是生成式人工智慧的哪些方面呢?
在我看來,大多數安全專家、政策制定者等人士犯的錯誤,是將生成式人工智慧主要視為大規模創建傳統內容的工具。儘管這項技術非常擅長於生成文章、圖像和視頻等內容,但更重要的問題是,生成式人工智慧將釋放出一種全新的形式,它可能會對我們的社會和個人造成更大的傷害。
生成式人工智慧可以創建逼真的虛擬內容,包括人物、場景、對話等,甚至可以生成真實的人物肖像和聲音。這種技術可以被濫用來進行虛假的視頻和聲音操縱,甚至可以創造虛擬人物來進行社交工程、詐騙和誘騙等活動。這種虛擬內容也可以被用來進行詐騙、誹謗、監視和滲透等活動,對我們的社會和個人帶來巨大的損害。
總之,生成式人工智慧的危險性遠不止於創建虛假內容,它還可能對我們的社會和個人造成更大的傷害。因此,我們需要制定更有效的監管政策和技術解決方案,以確保生成式人工智慧的安全使用。
留言
張貼留言