我总以为,每当人类尝试「再造」一些货色的时分,总会袒露出咱们对事物的认知限度,同时也帮忙咱们去理解自我。
尝试在太空中「再造」食品时,钻研人员发现食品真不克不及只被降至「养分够」。
要放弃太空人们身心安康,色香味口感声响无一不影响感知,环境要讲求,一同吃饭的人也十分首要。
当咱们具有一个能「流利说人话」的 ChatGPT 时,人们也开始发现人类言语不仅对于「文字」。
一个只由言语素材训练的零碎永久都不会接近人类智能,即使它从当初就开始训练,训练到宇宙覆灭都不行。钻研 AI 哲学的 Jacob Browning 和图灵奖得主 Yann Le Cun 在联结撰写的文章中指出。
他们以为,文字作为一种高度稀释的笼统符号,人类能了解的根底在于咱们具有丰硕的非言语共鸣和集体体验。这也象征着文字总可能会带来误读和歧义。
言语是咱们沟通的工具,但教育者对先生的了解和评价,不该只限于卷子上。
和先进的大型言语模型打交道,浮现出咱们单从言语中能失掉的货色是如许无限。