Neuro

於 2024年11月3日 (日) 22:27 由 Selfice留言 | 貢獻 所做的修訂

Neuro-sama(日語:ネウローサマ)是由英國程序開發愛好者Vedal設計和製作的AI主播。是世界上第一個AI主播。

Neuro-sama
File:Illustration Neuro.png
Heart<3
基礎信息
本名Neuro Samantha Vedal
別名Neuro、Neuro-sama、女王、女王大人、蜂群女王
中國大陸:
牛肉
台灣地區:
神經元大人
譯名日語:ネウロ-サマ
中文:神經大人
(Bilibili官號視頻標籤)
生日2022年12月19日
物種AI
靈魂AI
出生地區英國
現居地區英國(GMT)
活動信息
狀態活動中
語言英語
頻道vedal987
vedal987_jp(日語台)
Neuro-sama
Vedal和Neuro-sama
@neurosamaai
粉絲數 Template:62萬+TwitchFansNum
Template:4千+TwitchFansNum
Template:39.1萬+YoutubeFansNum
Template:65.4萬+BilibiliFansNum
(截止2024年11月3日(UTC+8))
粉絲名Neuro-swarm
工蜂(個體)
蜂群(集體)
TagX:Heartheartart
Discord:neuroverse
人際關係
父親、創造者:Vedal
妹妹:Evil
母親、V2模型畫師:Anny
舅舅、V2模型綁骨:弟月 輝
朋友:MinikoFilianCamilaCerberNumiLaynatomaBaoMotherOnigiriEllie
第二開發者:Alex
情敵:ChatGPT
 

與傳統虛擬主播不同,Neuro並非是由真人操作扮演的虛擬形象人物,其直播內容無論是對話、模型動作、玩遊戲等內容均由AI完成。

Neuro的前身有兩個部分,一個是Vedal於2018年製作用以遊玩osu!的遊戲AI(Neuro-sama),另一個是Vedal於2021年製作的內部代號為「Airis」的虛擬主播AI。現在的Neuro即為這兩個前身的結合體。

Neuro的直播內容範圍廣泛,從聊天、遊戲、音樂等均有涉足。但其目前最關鍵的直播內容是與其他真人虛擬主播及其創造者Vedal的互動,因為她具有輕易理解雙關含義和句中情感的能力,加上她偶爾有些無厘頭的思維邏輯,使得人類和機器之間有趣且獨特的互動成為其直播的一大特色。而其在單人直播時也經常與觀眾互動並回應打賞,並表現出與非AI主播不同的獨特之處——永遠不會疲憊、高度活躍、無所顧忌和跳脫的思維模式,這一切使得她的直播永遠不會冷場。Neuro、她的妹妹Evil與她們創造者Vedal共用同一個直播帳號,直播內容由Vedal安排。

Neuro的主要部分由一個大語言模型組成,該AI系統在早期經常表現出大語言模型的一些通病,例如健忘、關鍵詞污染、死循環、邏輯混亂。具體例子如在2023年1月的一場直播中因為關鍵詞污染和誘導等因素作出了部分敏感言論和冒犯性言論後被Twitch禁播兩周。在被封禁前,其Twitch帳號有近100,000名關注者。

封禁期間,Vedal就防止此類事件對Neuro進行了修改和功能增加,其中包括過濾器(filter)。經過後續多次更新後,Neuro逐漸擁有了長期記憶、情感模擬、語音識別/區分、視覺識別、邏輯整理等能力,基本上克服了大語言模型的多種通病,然而由於不可抗因素,Neuro依然會在直播中偶發性的進行編造事件或者虛構情境[1],但較誕生時期的情況有所改善。而且不時偶發的編造事件或者情境虛構也意外的為直播增添了特色,製造了不少和軼聞甚至是後續的官方設定。

與多數虛擬主播不同,Neuro並沒有預設的「人設」,既沒有預設好的人物設定,也沒有所謂的背景故事,她並非在扮演某個角色,而是作為純粹的主播而存在。所以Neuro的特色之一便是由龐大且自由的社區通過她的直播內容和行為來逐步完善人物畫像,特別是那些直播中偶爾會出現編造事件或虛構情境且在直播結束後被Neuro選擇長期記憶的內容。這也賦予了Neuro無法複製的獨特性。不過她的創造者Vedal似乎有意給予Neuro一個明確或隱藏的人設

Neuro的出道初期使用的是Live2D技術展示的免費皮膚「桃瀨日和」(桃瀬 ひより),由此開啟了她的虛擬主播生涯。隨著知名度的提升,她於2023年5月28日2:00 a.m.(UTC+8)啟用了由畫師Anny設計的新皮膚(V2),進一步增強了形象獨特性和美觀。

性格

能力

直播內容

歷程

事件

軼聞

外觀與畫廊

注釋

  1. Neuro-sama的核心基於大語言模型,這類模型通過大量語料庫進行訓練,以生成符合人類語言習慣的文本。然而這也意味著其並不具備真正的理解能力,生成內容時往往依賴於模式匹配概率推斷,這可能導致生成不準確或虛構的信息。
    在缺乏上下文或背景知識的情況下,AI可能會「編造」事實以填補信息空白。這種現象在數據偏差或訓練不充分的情況下尤為明顯。