AI人工智能若是人類能夠善用於日常生活中,無意是一個好幫手,早前在美國非牟利 AI 研究機構 OpenAI 日前公開以自然語言來產生新聞、小說、故事或文章的語言人工智能模型「 GPT-2 」的完整版。
OpenAI公開的 GPT-2 本來是一個純粹訓練來從網上文本中預測下一個單詞的語言模型,它是以 800 萬頁網頁來訓練,參數達 15 億個。 OpenAI 過去一直擔心公開完整版 GPT-2 會引發大規模濫用問題,所以一直以來都沒有公開源碼,只公開縮小版模型和相關論文。經過多個月觀察,由於未有發現廣泛濫用情況,所以就決定公開完整版本。
機器學習工程師 Adam King 同時升級了名為「Talk to Tramsformer」的網站使用 GPT-2 完整版模型,讓一般人都可以體驗一下 GPT-2 的「老作」威力。
開源﹕GPT-2 Source
筆者在 Talk to Tramsformer 網站,輸入一段名為「Hong Kong extradition bill」作出測試,產生出來的文章,給人的感覺不人性化,文本質量仍需要很大改進空間。
有興趣感受 GPT-2 能力,請親身嘗試一下它們提供的Web版本。