將自然語言直接變成現成程式碼,並非毫無風險

它大大展現出了微軟探索“低程式碼、無程式碼”的野心。但作為 GPT-3 的主要商業用例,這也只是當代 AI 領域中占主導地位的 AI 語言模型的其中一個實際應用。這些系統功能強大,幾乎能夠生成我們所能想象的任何文字型別,並透過多種方式操縱語言。與此同時,不少其他大型科技企業也正在探索其中蘊藏的無限可能性。谷歌已經將自己的語言 AI 模型 BERT 整合到搜尋產品當中,而 Facebook 也將類似的系統引入到機器翻譯等場景之下。

將自然語言直接變成現成程式碼,並非毫無風險

但這些模型也有自己的問題。其核心往往來自研究人員從網路上爬取到的大量文字資料中的語言模式。就像微軟的聊天機器人 Tay 會很快學會 Twitter 使用者釋出的侮辱性言論一樣,這類模型也很可能在編碼當中重現各種形式的性別歧視與種族主義表達。由此生成的輸出,也可能帶來意料之外的負面影響。例如,某個基於 GPT-3 的實驗性聊天機器人本應釋出醫療建議,卻規勸模擬病患最好自行了斷。

將自然語言直接變成現成程式碼,並非毫無風險

拉瑪納強調,對於微軟來說,使用 GPT-3 建立程式碼的風險雖小,但也仍然存在。該公司已經對 GPT-3 進行了微調,希望透過 Power Fx 公式示例進行訓練以掌握程式碼轉換的能力。但從根本上講,這款程式的核心仍然基於從網路上學習到的語言模式,這意味著其中或多或少殘留著某些負面元素與偏見。

將自然語言直接變成現成程式碼,並非毫無風險

拉瑪納舉了使用該程式查詢“所有優秀求職者”的示例。程式會怎麼理解這條命令?GPT-3 可以發明新的標準來回答問題,也有可能自行假設“好”跟“白人”是一回事,畢竟網上的不少言論就是這麼暗示的。

微軟公司表示將透過多種方式解決這類問題。首先就是設定系統不會響應的違禁單詞及短語列表。拉瑪納強調,“我們不會推出任何可能輸出有毒言論的 AI 系統。”而如果這套系統生成了其自認為有問題的內容,還會提醒使用者將結果上報給技術支援團隊。之後,會有員工介入並努力解決問題。

但拉瑪納也指出,要想在程式安全與功能靈活性之間求得平衡性顯然非常困難。按種族、宗教或性別進行篩選既可能代表歧視,也有可能對應某些合法應用。微軟似乎在努力找到這兩類應用場景的區別。

The Verge 認為,儘管這款程式還面臨著種種未能解決的問題,但這只是微軟大規模試驗的第一步。不難想象,將類似功能整合至微軟 Excel 中之後,相關服務將覆蓋全球數億使用者、極大擴充套件其可訪問性乃至社會影響力。

不過拉瑪納否認了這種大規模應用的可能性,表示這不是他的職責所在,但他坦言新專案可以在任何能夠支援 Power Fx 的場景下實現 GPT-3 輔助編碼,而且 Power Fx 廣泛存在於微軟產品的各個層面。因此,相信使用者在未來使用微軟產品時,會越來越多地享受到 AI 程式碼生成帶來的便利與收益。