Искусственный интеллект уже рисует, сочиняет музыку, программирует, а теперь еще и может создавать стилистически удачные тексты. Становимся ли мы, люди, лишними или создаем мощный инструмент, который будет двигать нас вперед?
Если вы начинаете переписываться с незнакомцем в Интернете, всегда есть риск, что этот человек не тот, за кого себя выдает. За фотографией симпатичной девушки может скрываться толстяк, приличные джентльмены могут оказаться экстремистами, да и вообще существует постоянный риск, что вас просто дразнит кучка детей. Кроме того, в последние годы технический прогресс вбивает один клин за другим в доверие к Интернету с помощью так называемого искусственного интеллекта, или ИИ. Теперь эти программы рисуют, сочиняют музыку, пишут компьютерный код и выполняют множество других действий, которые можно автоматизировать. Новой сенсацией конца прошлого года стал ChatGPT, который может идеально имитировать человеческий разговор.
Фото: Shutterstock
ChatGPT, он же Chat Generative Pre-trained Transformer, является так называемым чатботом, а значит, имеет задачу текстового общения. Вышеупомянутые программы используются, например, для первоначального контакта с клиентом, отвечая на простые вопросы или запросы, а если они оценивают, что клиенту требуется вмешательство живого сотрудника, то могут переподключить его. До сих пор это были относительно примитивные инструменты, которые не могли импровизировать или скрывать свои недостатки. Но технология машинного обучения вывела их на новый уровень.
При машинном обучении анализируется огромное количество ресурсов в виде текстов, изображений, музыки и т.д. На основе этих данных ИИ понимает закономерности и может творить в соответствии с ними. Таким образом, это не ИИ с внутренней мотивацией или сознанием, которые мы ассоциируем с «живой» программой. Чатбот не «думает», как человек, но он может прекрасно научиться делать что-то. Он смотрит на сотни тысяч работ, сделанных людьми, а затем пытается подражать им, пока не достигнет удовлетворительного сходства.
ChatGPT – это программа анализа языка. Индексируя слова, фразы и предложения, она создала собственную базу данных о значении, удобстве использования, эмоциональной окраске и других элементах, которые определяют, какие обороты речи использовать в конкретных ситуациях. Проще говоря, он не понимает, что означают отдельные слова, но у него есть представление о том, как применить их в связном тексте, чтобы он имел смысл и соответствовал заданию. Этого понимания он достиг, изучая разговоры с людьми, а также анализируя интернет-источники, статьи и письменную речь в целом. Таким образом, он может подражать стилю автора и, когда его попросят, написать рассказ, стихотворение, эссе или длинное сочинение на заданную тему.
Уровень его «образованности» настолько высок, что он сдал экзамен по менеджменту в Уортонской школе. Однако он сдал его не блестяще, допустил несколько удивительных ошибок в математике и заработал четверку или пятерку с минусом. Таким образом, даже описанная форма искусственного интеллекта не является совершенной, и его результаты хороши лишь настолько, насколько хороша информация, которую он усваивает. Это также поднимает ряд этических вопросов. Хотя программисты заставили ChatGPT изучать тщательно отобранные и идеологически доброкачественные интернет-источники, теоретически ничто не мешает ChatGPT учиться на материалах политических или религиозных экстремистов и затем распространять их по всему миру. У программы нет совести, для нее слова – это просто набор знаков, и поэтому для нее не составляет труда, например, отрицать Холокост или преуменьшать массовые убийства коммунистических режимов.
Фото: csee-etuce.org
Искусственный интеллект «Оливия» компании Paradox хорошо зарекомендовал себя при подборе персонала для сети ресторанов быстрого питания McDonald's: он может отбирать, проводить собеседования и нанимать людей почти так же хорошо, как менеджер на обычном собеседовании. Так что это лишь вопрос времени, когда мы обратимся к искусственному интеллекту за советом по финансам, здоровью и другим деликатным вопросам. Особенно в этих случаях необходимо будет убедиться, что программа предоставляет объективные и непредвзятые данные, иначе клиент может инвестировать в мошеннические компании и оставить заботу о своем теле шарлатанам.
Google, конечно, не хочет опоздать на поезд и поэтому уже объявил о запуске собственного приложения Bard. Однако она намерена внести в него этические правила, которые запретят ему говорить о вопросах здоровья, финансов и расы. Также ChatGPT отказывается писать о живущих знаменитостях, избегает субъективных мнений и даже не желает предсказывать мировые события. Это временное решение, и в будущем меры, несомненно, будут достаточно усовершенствованы, чтобы избежать запретных тем. Однако в настоящее время технология, о которой идет речь, развивается стремительно, а законодательство стран не успевает адаптироваться. Более того, что может помешать диктаторским режимам, которые уже эксплуатируют «фермы троллей» и наводняют социальные сети ловко замаскированной пропагандой, разработать свои собственные эффективные приложения? Возможно, тогда нам понадобятся «агенты» ИИ для обнаружения их скрытых «противников».