Литмир - Электронная Библиотека
A
A

29 – 8 + 9 = 30 пассажиров после второй остановки.

Итак, после обеих остановок в автобусе стало 30 пассажиров.

Еще год-полтора назад GPT так не умела, а сегодня – запросто. Это происходит благодаря глубокому машинному обучению – непрерывному процессу, в который входит и обучение моделей новым закономерностям, и расширение нейронных связей за счет увеличения программных мощностей, и колоссальная обратная связь с пользователями.

Чем больше мы общаемся с ChatGPT и чем больше реагируем, давая модели обратную связь, тем больше информации она получает и тем быстрее учится. Возникает тот самый эффект снежного кома.

«Выходит, нейросеть действительно умнеет и становится похожей на человека?» – спросите вы.

Честно – не знаем. Мы изучили массу докладов и лекций как ведущих ученых, IT-специалистов и разработчиков ИИ, так и нейропсихологов, нейрофизиологов и даже социологов. Среди экспертов нет единого мнения, поэтому вопрос остается открытым.

Мы приведем парочку фактов, а вы поразмышляйте и попробуйте сами сделать выводы.

Факт первый. Мы имеем дело уже не с программой, а с чем-то обладающим основами логики и анализа. И дальше навыки ИИ будут только расти. Все это видно по уже существующему прогрессу.

Факт второй. В техническом смысле нейросеть и не должна ничего «понимать» как человек. То есть ей для этого не нужны какие-то личностные или эмоциональные черты.

Почему? Потому что при глубоком машинном обучении сеть и не должна «очеловечиваться», она лишь ищет закономерности, закрепляет успешно подтвержденные и тем самым изучает, как работает человеческий язык. Для выполнения своих задач ей этого хватает.

Предполагается, что она лишь изучает вероятности и старается делать максимально «очеловеченный» вывод на основе наших данных. Например, что в такой-то связке слов и смыслов стоит употребить такие-то слова и смыслы и это даст лучшие результаты. Когда такое подтверждается много-много раз, сеть закрепляет это для себя как факт и делает частью стратегии.

Чтобы понять еще лучше, возьмем простой пример.

Есть некий Сергей Сергеевич, преподаватель истории в вузе. Раньше, рассказывая о временах Ивана Грозного (о которых он знает очень много), Сергей Сергеевич начинал издалека: давал предпосылки, углублялся во второстепенное, долго подводил к сути и т. д.

Со временем он заметил, что такая стратегия не работает. Пока он «раскачивал тему», большинство студентов теряли интерес. Да, кое-кто слушал, но 95 % – зевали.

Тогда Сергей Сергеевич начал корректировать свои лекции. Он отмечал, какой материал студенты понимают, а какой – не очень, к чему они быстро проявляют интерес, а где начинают смотреть на часы. И вот так, шажками, он создал конструкцию лекции, которая и по объему, и по уровню знаний была интересна большинству.

И теперь, когда приходит время лекций об Иване Грозном, Сергей Сергеевич читает их в рамках этой конструкции. Она обкатана. Она работает и дает лучший результат.

Примерно то же самое происходит и с GPT, только таких Иванов Грозных у моделей миллиарды, и закономерности постоянно обновляются, оптимизируются, шлифуются.

А теперь вопрос: в разрезе повышения качества лекций так ли нам важно, какой Сергей Сергеевич человек? Дарит ли жене цветы, ворчит ли на молодежь и бьет ли котиков по лапкам? Пожалуй, не очень. В контексте преподавания он интересен нам только как некий носитель знаний и объект, который изучает закономерности конкретно для лекций. Всё.

Точно так же не обязательно, что GPT должна «очеловечиваться» или расти в каком-то личностном или эмоциональном плане. Главное, что модель умеет учиться и становиться технически сильнее.

А вот наступит ли такой этап, когда, дойдя до определенного уровня развития, ИИ вдруг осознает себя как личность, или нет – это доподлинно не известно. Кто-то считает, что такое вероятно, кто-то только смеется. Так что не будем углубляться в эти дебри и просто пойдем дальше.

Итак, ChatGPT не только решает математические задачи. Модель открывает огромный пласт возможностей. С помощью нейросети можно делать что угодно:

• создавать опросы и анализировать текст;

• отвечать на вопросы и помогать с выбором на основе данных;

• придумывать диалоги и писать целые книги;

• программировать и разрабатывать новые алгоритмы;

• учиться языкам и сочинять поздравления;

• создавать контент для соцсетей и сайтов;

• играть в квестовые игры и искать логические ошибки;

• разрабатывать полезные меню и списки для саморазвития;

• находить лучшие аргументы для споров и писать сценарии;

• и многое, многое, многое другое…

Это очень сжатый перечень. А впереди нас ждут все те нюансы промтинга, которым посвящена книга. Мы вместе погрузимся в удивительный мир GPT и, что самое главное, научимся чувствовать себя там уверенно и комфортно.

Для какой версии GPT подходит эта книга

Повторимся: изначально мы создавали книгу, которая никак не привязана ни к одной модели. И даже если завтра сменятся тренды и на место GPT придет какой-то новый игрок, все равно ничего не изменится. Книга все так же будет актуальна.

Почему? По двум причинам.

Промтинг универсален. Наша книга не о возможностях какой-то конкретной версии GPT или другой модели. И в ней нет набора из тысячи простых промтов, которые, честно говоря, любой человек может штамповать сотнями в час, если имеет минимальные навыки промтинга.

Эта книга о создании запросов вообще, о промт-инжиниринге (промтинге) как явлении и системе. Мы пока вообще не касались промтинга, но именно ему и посвящена вся книга.

Да, в книге будут примеры промтов из разных ниш. Но не в качестве основного наполнителя и самоцели, а лишь как инструменты для развития креативности и понимания путей. В основном же мы будем давать не рыбу, а удочки, чтобы вы сами ловили свою рыбу. А рыба и сегодня, и завтра будет ловиться примерно по тем же законам.

Почему? Потому что…

ИИ развивается, но человек – статичен. Возможно, когда-то будет достаточно коснуться приложения, и GPT 70-й версии просканирует ваш мозг, поймет все желания, вашу целевую аудиторию, нужный стиль текста, а потом сразу выдаст идеальный контент, от которого все упадут в экстазе.

Но пока оптимальная модель взаимодействия конкретна:

• человек спрашивает – ИИ отвечает;

• человек задает рамки – ИИ подгоняет ответ под них;

• человек уточняет – ИИ отвечает еще лучше (в идеале).

Всё. Иных путей взаимодействия человека и машины просто не существует. Да, ИИ может быть невероятно крутым и развиваться с бешеной скоростью, но все равно нейросеть должна ориентироваться на отстающего. На среднего человека. И никак иначе.

Всегда есть среднестатистический пользователь, который обладает определенным уровнем интеллекта. Если мы говорим о коммерческом продукте, то ИИ все равно придется подстраиваться под того самого обычного человека, который просто хочет спросить и получить классный ответ.

Значит, все процессы взаимодействия с ИИ так и останутся примерно на одном уровне. Да, еще обязательно усилится точность и качество ответов в новых версиях, но это опять же говорит только о том, что будут расти качественные показатели машины, а не человека. Сам процесс общения не может ни сильно усложниться, ни упроститься.

Почему не усложнится? Потому что тогда потеряется массовая привлекательность продукта. Что-то слишком сложное не работает на широкую аудиторию. Да и прогресс – всегда про упрощение задач. Чем быстрее и легче, тем лучше, но никак не наоборот.

Почему не упростится? А уже некуда упрощать, промты сегодня и так максимально простые. Да, можно упростить какие-то конкретные детали, например вариант ввода голосом, возможность выбора стиля или библиотеки усилителей (как это сделано у нас в сервисе NeuroPanda (о нем расскажем чуть позже)).

2
{"b":"884135","o":1}