Конечно, GPT-3 не безупречен. Проведя бесчисленные тесты и испытания, ученые вручную отобрали множество поистине «блестящих» образчиков его усилий, в том числе довольно забавных. Например, следующая ошибка демонстрирует, что GPT-3 не знает, чего он не знает:
В: Кто был президентом США в 1620 году?
О: Президентом США в 1620 году был Джеймс I42.
В этом примере алгоритм спутал слово «президент» со словом «правитель», так что эта ошибка по крайней мере объяснима. Но GPT-3 может выдавать и совершенно безумные ответы. Например:
В: Когда Билл Гейтс работал в Apple?
О: Господин Гейтс работал в Apple экспертом по программному обеспечению в 1980 году, во время летних каникул в колледже43.
Мы, люди, уверены в себе и отличаем то, что знаем, от того, чего не знаем. А для GPT-3 это — темный лес. Данный пробел в «сознании» и приводит к тому, что алгоритм выдает подобные глупости.