AI започва зловещо да се отдалечава човешкото мислене, какво ни предстои?
Най-новият модел на изкуствен интелект на OpenAI, o1, демонстрира отдалечаване от човешкото мислене чрез намиране на правилните отговори чрез проба и грешка.
В статия на портала New Atlas се посочва, че ChatGPT и други базирани на голям езиков модел (LLM) AI преди това са били обучени на цялата информация, достъпна за човечеството с подсилване и човешка обратна връзка. Въпреки това, новият модел o1 започна да се отдалечава от човешкото мислене и започна да прилага ефективен подход на чиста проба и грешка в преследване на правилния резултат.
Както се отбелязва в публикацията, разработчиците са вградили в o1 „време за мислене“, през което той генерира „верига от мисли“, обмисляйки възможно решение на проблема. Тук се намесва подходът RL (игрово базирано обучение за укрепване).
Съобщава се, че за разлика от предишните модели, които бяха като усъвършенствани системи за автоматично довършване, o1 се „грижи“ дали прави нещо правилно или не. o1 все още раз..