Химия и Жизнь - Синтетическая реальность и наука | Научно-популярный журнал «Химия и жизнь» 2023 №12

Синтетическая реальность и наука


С.М. Комаров

Доктор сказал — в морг, значит — в морг!

Из анекдота

pic_2023_12_02.jpg
Иллюстрация Сергея Тюнина

Великая машина будущего

Я сидел в приемной банка, ожидая, когда выпадет мой номер, чтобы оформить возврат денег. А у стойки возмущалась клиентка, которая пришла оформлять наследство: почему передо мной прошло десять человек, которые пришли позже меня, чем я виновата? Менеджер никак не могла ответить на этот вопрос. Потому, что никогда не задумывалась об алгоритме работы того робота, что выдает талончики посетителям.

А его алгоритм прост, он основан на теории очереди: чтобы она шла быстрее, нужно чаше обслуживать таких клиентов, дело которых не требует длительного времени; соответственно клиенты, требующие длительного обслуживания, оказываются в ситуации, когда их как будто дискриминируют. Когда-то это знали все читатели научно-популярных журналов, однако новое поколение незнакомо с такой идеей и оказывается беспомощным: не может объяснить логику деятельности простейшего робота, хотя им ежедневно пользуется. И это простейший робот с набором жестких правил, никакого искусственного интеллекта (ИИ) у него нет.

Поэтому, очевидно, что массовое использование гораздо более сложных систем ИИ уж точно не вызывает у его пользователей желания, да и способностей, осознать принципы работы и ограничения: вот он есть, он работает лучше человека, мы ему верим и его используем. Более того, уже сейчас при системах ИИ фактически появилась каста так называемых техно-жрецов, задача которых обслуживать и интерпретировать поведение создаваемой человечеством Великой машины будущего.

В фантазиях Айзека Азимова поначалу подобные машины выполняли региональные задачи: рассчитывали траектории экономического развития континентов и корректировали их для достижения счастья человечества, а затем взяли в оборот и всю планету как единое целое. Ну а потом роботы, следуя Первому закону роботехники, точнее его части «…не может допустить причинение вреда человеку своим бездействием», и вовсе принялись проектировать будущее на уровне Галактики, основываясь на уравнениях психоистории.

О том, к каким результатам в реальности приведет безграничное доверие ИИ и сколь долго это доверие удастся сохранять, размышляют лучшие умы человечества. Из их размышлений следует, что наиболее опасные события, вызванные некорректным использованием ИИ, ожидают нас в сфере массовых коммуникаций и в научной деятельности. Именно здесь наиболее наглядно будет выпирать та синтетическая реальность, которую ИИ уже плетет в реальности физической.

pic_2023_12_04.jpg
Так нейросеть Open Diffusion видит образ «Химии и жизни»

Синтетическая реальность

Как выглядит феномен синтетической реальности? Прежде всего, он базируется на принципе вероятностной правды, когда истинность события, утверждения, явления устанавливается в результате применения той или иной процедуры голосования. Например — за счет частоты перепостов и просмотра роликов противоположенного содержания: какой ролик набрал больше просмотров, то и правда.

Это имеет серьезные последствия. Ведь системы искусственного интеллекта в значительной степени черпают свои знания, анализируя с огромной скоростью сайты Интернета. А он заполнен бесчисленными постами пользователей соцсетей, которые высказывают свое мнение обо всех явлениях и событиях, происходящих и происходивших в мире. ИИ, обучаясь на таких интернетных образцах, вынужден учитывать все эти мнения, принимая их за чистую монету.

Конечно, он ранжирует мнения источников в зависимости от встроенной в него шкалы достоверности, но все равно ему никуда не деться от того влияния, которое распространяет в Интернете общественная психология человечества. Следствием оказывается явление галлюцинирования — так пользователи Сети называют творения ИИ, в которых смешаны ложь и правда; по данным интернет-счетчиков, это слово в своем новом значении стало самым популярным в 2023 году.

В специализированных системах ИИ истина устанавливается несколько иным методом: голосованием экспертов, рецензирующих научную литературу, ведь обучение идет именно на ее основе. Это хорошо: никакая крамольная мысль, никакой непроверенный метод лечения или технологический прием не проникнет в систему профессионального ИИ. Но это же и плохо: поскольку ИИ не способен выйти за пределы той базы, на которой происходило его обучение, от него нельзя ожидать новых смыслов и с ним нельзя договориться. То есть взятое из анекдота «доктор сказал — в морг, значит — в морг» не подлежит никакому обсуждению. Не нужно думать, что это какое-то далекое будущее: описанный в начале статьи случай в банке наглядно свидетельствует, что власть робота, даже примитивного, выдающего талончики очереди, оказывается по определению выше, чем воля людей. Потому что «он лучше знает».

Зато имеющимися смыслами, имеющимися образами ИИ может виртуозно манипулировать, воздействуя из своей синтетической реальности на реальность физическую. Вот яркий пример. По Сети осенью 2023 года активно распространяются ролики, в которых президент Украины В.А. Зеленский приказывает солдатам, во избежание потерь, покинуть некий укрепрайон, а при сопротивлении офицеров — расстреливать их. Есть и альтернативные ролики с приказами стоять до конца.

На роликах обоих типов указан логотип одного и того же телевизионного канала, подготовлены они с одинаковым качеством. Какой из них подлинный? В принципе, будучи в теме, догадаться не трудно. И действительно, очевидно ложный ролик не стал вирусным, большой аудитории не завоевал, реальная истина не пострадала. Впрочем, такая провокация была пока что развлечением специалистов по изготовлению глубоких выдумок (дип-фейков), так сказать, демонстрация возможностей и изучение реакции общественности.

Однако если относиться к явлению серьезно, то теперь вопрос об истинности увиденного и услышанного оказывается совершенно не праздным, ведь, в зависимости от выбора ответа, субъект выбора может попасть в такую синтетическую реальность, которая совершенно противоположна реальности физической.

Чрезвычайно интересным элементом синтетической реальности оказывается послежитие знаменитостей. Хорошим примером служит нейросеть Жириновский, созданная с использованием высказываний этого долгожителя российской политической истории, покинувшего физическую реальность в апреле 2022 года.

Электронный Жириновский ведет свой телеграмм-канал и очень разумно, с присущей ушедшему политику экспрессией, отвечает на вопросы о текущей ситуации, комментирует события, происходящие в стране и в мире. Пока что в текстовом формате, но, очевидно, и видеоформат не за горами. Поговаривают, что в ЛДПР предполагают принять нейросеть в число членов партии. Это будет интереснейший прецедент прорыва синтетической реальности в физическую, предвосхищенный Робертом Сильвербергом в рассказе «Хорошие новости из Ватикана» об избрании робота папой римским.

pic_2023_12_06-1.jpg
Синтетическое изображение ракетного обстрела (внизу) гораздо реалистичнее ложной картинки массового запуска ракет (вверху), сделанной художником фотошопом — за счет размножения изображения одного пуска. Потом такие картинки можно предъявлять СМИ или международным организациям, и они сработают не менее убедительно, чем пробирка с белом порошком в руках госсекретаря администрации США Колина Пауэлла, которая послужила поводом для нападения США на Ирак в 2003 году

Алгоритмы синтеза реальности

Подобные яркие примеры представляют собой лишь хорошо заметную вершину айсберга. Стараниями программистов, разработавших изощренные алгоритмы, нейросети уже умеют создавать то, что всегда было прерогативой творческих людей: вполне реалистические изображения, формировать аудио- и видеоряды на основе выбранных шаблонов. Более того, алгоритмы Большой модели языка (Large Language Model, LLM) позволяют нейросети неплохо складывать слова, причем не просто в связный текст, но и придавать ему красивую форму, например стихотворную, мало отличимую от творчества людей-поэтов. Как же они это делают? Вот, например, как нейросеть готовит изображения.

Для начала ей дают задание. Это можно сделать либо текстом — «приготовь картину, как у Васнецова, но с изображением современной российской реальности», либо в виде заготовки картины, на которой набросаны профили рельефа, каркасы, показывающие позы людей. Второй способ хорош, когда словами трудно сформулировать, что должно быть на картинке. Далее вступает в действие один из алгоритмов, например алгоритм GAN (от Generative Adversarial Networks, порождающие состязательные сети). В этом алгоритме задействованы генератор и дискриминатор. Генератор обучается изображать объекты, вычленяя их из имеющейся в его распоряжении коллекции изображений из Всемирной паутины. А дискриминатор проводит селекцию как исходных, так и полученных изображений. В таком состязании алгоритм находит истину.

Альтернативой служат диффузные модели. Работая в парадигме Микеланджело, то есть взять камень и отрубить все лишнее, алгоритм учится добавлять и убирать шумы, сначала размывая известное полотно до белого шума, а затем снова вычищая из шумов изображение высокого качества. Научившись извлекать из шума известное изображение, алгоритм способен извлечь и неизвестное, соответствующее шаблону. Это итеративный процесс — на каждом шаге алгоритм проверяет, похож извлекаемый из белого листа объект на задание или нет. Такой алгоритм работает надежнее, но дольше, чем GAN.

Есть еще интересный алгоритм вероятностных автоэнкодеров. В таком алгоритме энкодер анализирует массив входных данных, например изображения лиц с разными гримасами, и сводит все их разнообразие к небольшому числу параметров. Затем декодер по имеющимся параметрам воспроизводит исходные картинки. В этот процесс вводят вероятности, которые вносят неопределенность в параметры восстанавливаемого изображения, и благодаря этому на основе конечного массива входных данных удается получать бесконечное разнообразие выходных данных. У этого алгоритма более понятные процедура обучения и преставление о том, что будет сгенерировано, однако четкость изображений порой страдает.

Оптимальный алгоритм формирования синтетической реальности еще не выбран, но специалисты склоняются к тому, что наиболее перспективными оказываются диффузные алгоритмы. Пусть и не очень быстро, они великолепно справляются со сложными заданиями, требующими неконкретного мышления. Вот, например, какую картину диффузный алгоритм нарисовал по запросу «Химия и Жизнь». Получилось достаточно тревожное изображение, на котором загадочный черный техноград на холме явно противопоставлен живому дереву, расположенному на противоположной стороне затянутого непрозрачным газом ущелья.

Предложенная аллегория вполне читается и полностью соответствует присущей общественному сознанию хемофобии, смешанной с преклонением перед чудесами техники. Ну да это и понятно: источником вдохновения для ИИ служит информационный шум Интернета с его миллиардами постов о вреде химии. Во всяком случае, видно, что верно сработала и та часть алгоритма, которая занята превращением входной текстовой информации в ассоциации, и та, что создает художественный образ этих ассоциаций.

pic_2023_12_05.jpg
Эта картинка синтезирована по текстовому запросу «старое фото пирамид Гизы с проходящими рядом верблюдами»

Империя лжи

В настоящее время алгоритмы, превращающие текст в образы, все-таки не очень совершенны и человек легко отличает их творения от ручного труда. Недавно вышел курьезный случай: при изготовлении заставки к статье о базе на Луне (см. «Химию и жизнь» 2023 №5) ИИ приделал на околоземную орбиту Фобос, отняв его у Марса. Надо полагать, что самому безграмотному художнику такое никогда бы не пришло в голову. По подобным и менее грубым ляпам эксперты пока что могут различить творения ИИ и человека.

Однако качество работы алгоритмов растет, как и вычислительные мощности. В результате число ошибок падает и сыщикам, специализирующимся на разоблачении лжи, будет приходиться все труднее и труднее. Например, свежая модификация алгоритма GAN снизила эффективность программы для распознавания ложных изображений с 92 до 12%. В общем, в этом деле началось традиционное соревнование стрелы и брони.

Естественно, все упомянутые алгоритмы прекрасно работают не только при синтезе картинок; им под силу создавать видео- и аудиоролики. И делать это ровно так же: по текстовому описанию и на основании некоего шаблона. Очевидно, что развитие этого направления имеет весьма значительные последствия прежде всего для масс-культуры, а также политики, науки и правоохранительной системы.

Вот, например, ИИ научится превращать длинный текст в еще более длинные видеопоследовательности. Что это значит? Прежде всего, что безымянные для большинства зрителей «звезды» сериалов становятся, как тот скрипач, не нужными: ИИ создаст гораздо более качественные цифровые копии актеров, которые станут жить своей экранной жизнью без участия человека.

Почему более качественные? Потому что в его распоряжении тысячи разных фильмов, миллионы эпизодов, которые он может бесконечно варьировать, внося некие вероятностные поправки в ход действия. Не исключено, что надобность в сценаристе и даже режиссере отпадет, главным окажется эдакий техножрец, программист, способный управиться с нейросетью. Более того, можно ожидать послежитие великих актеров прошлого, которые с помощью ИИ станут играть новые роли. Опыты такого рода уже на слуху — вроде мирового турне 2022 года цифровых образов участников квартета АВВА, которые исполняли новые песни в обличии 40-летней давности.

Вторжение синтетической реальности в мир синематографа для замены бездарных актеров — дело, в общем-то, безобидное, хоть и неприятное для многих участников этого сектора рынка. А вот изготовление ложных видео с корыстными целями ведет к гораздо более серьезным последствиям. Скажем, ложные выступления политических лидеров вроде упомянутого ложного ролика Зеленского никак нельзя счесть за милую шутку; такие ролики наносят прямой удар по национальной безопасности, ведь в информационную эпоху важно не только то, что делает руководитель страны, но и что он говорит в публичных выступлениях. Невозможно, чтобы возникали сомнения в истинности подобных выступлений.

На бытовом уровне ложные аудио- и видеозаписи оказываются удобным инструментом в руках преступников. Причем отнюдь не в теории: Вестник киберполиции России (телеграмм-канал Управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России) 14 ноября 2023 года предупреждал граждан, что благодаря ИИ мошенники научились подделывать голоса и это помогает вымогать деньги на помощь якобы их пострадавшим родственникам: знакомый голос и манера общения звучат явно убедительнее, чем голос позвонившего по телефону незнакомца. Более того, ИИ облегчил создание ложных сайтов для кражи денег с банковских карт, так называемых фишинговых сайтов.

Возможности ИИ эксплуатируют и шантажисты. Если совсем недавно нужно было монтировать в доме намеченной жертвы скрытую камеру или проникать в ее компьютер для съемки через встроенную в него камеру, как это продемонстрировано, скажем, в перестроечном фильме «Гений», то теперь таких сложностей не нужно. Ложное видео удастся сделать, озадачив ИИ словесным описанием сюжета и предоставив графические образы персонажей и интерьера синтезируемой сцены. Далее можно пугать жертву опубликованием этого видео как события, имевшего место быть. Эксперты потом конечно же докажут, что событие происходило в синтетической реальности, но пятна с репутации это никак не смоет.

pic_2023_12_06-2.jpg
Пока у ИИ, подделывающего изображения, не все выходит гладко: то на руке получится шесть пальцев, то надпись на ложной фотографии плаката окажется на несуществующем языке. Подобные недочеты позволяют экспертам различать ложные и реальные изображения, но так будет не всегда

Результаты без исследования

А что же наука? Каким образом она может оказаться под ударом синтетической реальности? Таких ударов даже не один, а два.

Прежде всего, используя генераторы ложных аудио- и видеоданных, становится очень легко получать результаты исследований, не проводя сами исследования. Электронная микроскопия, астрономия, рентгенография, томография, физиология, словом, все работы, методом которых служит анализ изображений, видеоряда, звуков, оказываются под угрозой фальсификации и плагиата: описываешь, что хочешь увидеть, и генератор синтетической реальности выдает желаемые данные в пригодной для публикации форме. Наибольшую угрозу специалисты видят именно для медицины и физиологии, поскольку в этой области технологии ИИ для анализа данных хорошо развиваются, а значит, создается основа и для синтеза желаемых изображений такого типа.

Конечно, можно сказать, что истинный ученый никогда на такое не пойдет, и это так. Однако в мире существует развитая индустрия изготовления на заказ дипломов, диссертаций, публикабельных научных статей. Вот в этой области наличие ИИ, способного синтезировать нужные научные данные, оказывается более чем востребованным. Главное, что синтезированная фотография будет отличаться от любого реального прототипа и факт плагиата доказать невозможно в принципе. Хотя его и так доказывать не всякий решится.

Когда автор этих строк работал в ЦНИИ Чермете им. И.П. Бардина, был один случай. Коллега, доктор наук, сотрудничавшая с ВИНИТИ по изготовлению рефератов статей, наткнулась на статью, опубликованную коллективом из египтянина и поляка в каком-то индийском журнале. Там она увидела свою фотографию микроструктуры сплава. Однако решила, что судиться с зарубежным журналом хлопотно и дело ограничилось сетованиями в лаборатории.

Идеальный текст неуча

Второй удар наносит генеративный ИИ, способный выдавать качественные тексты — на пользу и во вред. Польза состоит в том, что в распоряжении такого ИИ находятся колоссальные информационные ресурсы, собственно, все, что хранится в Интернете. А раз имеется такой огромный массив, значит, при поиске литературы для подготовки обзора ИИ найдет гораздо больше источников интересной информации, чем человек. Так оно и получается в физической реальности: исследователи все чаще используют ИИ для подготовки обзоров, и они выходят качественнее, чем при ручном поиске. А подготовка обзоров, надо сказать, это очень выгодное дело: во-первых, отличный способ поднять свой рейтинг цитирования, а во-вторых, гонорар за объемный труд выше, чем за тощую статью. Более того, теперь и рецензенты используют ИИ для оценки качества предложенных их вниманию статей.

Такая практика пугает научные издательства, а некоторые даже запрещают рецензентам использовать ИИ: ведь для этого им нужно загрузить текст в Интернет, а любой, оказавшийся там текст может быть использован для обучения ИИ. Обучать ИИ на статье, которая не прошла проверку рецензентом и может содержать ошибочные данные, в принципе нехорошо, но издателей больше волнует, что будет нарушена эксклюзивность и данные станут известны до публикации, что нарушит права издательств.

Очень хорошо ИИ справляется с написанием статей на английском языке. Это крайне важно для исследователей из тех стран, где английский язык не используют в качестве средства общения. И статистика свидетельствует: среди причин отказа от публикации в международных научных журналах плохое изложение на английском оказывается ничуть не менее значимым фактором, чем содержание статьи. Ну а публикация в рейтинговом журнале — это и индекс Хирша, и перспективы получения гранта.

Однако на этом польза генераторов текста для науки заканчивается и начинается вред. Прежде всего, ученые даже из англоязычных стран все чаше прибегают к услугам ИИ для написания статей и заявок на гранты, аргументируя тем, что их дело наукой заниматься, а не бумагу марать. У школьников и студентов генерация с помощью ИИ текстов всяких докладов и рефератов уже вошла в систему, заменив прежний метод копипаста, то есть копирования текста из различных источников с прописыванием связок между этими фрагментами.

Однако зачарованные той легкостью, с которой создаются прекрасные по форме тексты, причем уникальные, не содержащие прямых намеков на плагиат, пользователи ИИ-генераторов не задумываются над тем, что генератор текста выдает ровно то, что от него требуют, что заложено в исходные данные при постановке задачи. И его совершенно не заботит истинность положений созданного текста и вообще смысл этого текста: генератор просто подбирает цепочки слов.

Добросовестный ученый или школьник постарается выправить ошибки, но для этого он и сам должен обладать широким кругозором. Если же не тратить время на перепроверку, а пробежать глазами и сразу отправить текст в редакцию, а именно так и делает большинство пользователей генераторов текста, то возникает поток лживой информации, с которым ни одна редакция не справится без использования собственного ИИ, распознающего даже не ложь, а факт использования генератора текста с принятием соответствующих оргвыводов.

С другой стороны, редакции лишаются четкого понимания, а точно ли автор делал ту работу, про которую рассказано в статье, или это продукт компиляции под другим видом известных результатов, а то и вовсе ложные результаты, основанные на выдумке? Если к этому присовокупить возможность иллюстрации статьи ложными экспериментальными картинками, мало отличимыми от реальных, ситуация становится и вовсе безнадежной. В общем, если развитие научной литературы пойдет по этому пути и в погоне за высоким Хиршем возникнет массовый поток псевдонаучных выдумок, сгенерированных ИИ, наука лишится своей основы — доверия к публикуемым результатам.

Весьма опасным оказывается использование генераторов текстов в гуманитарных науках, базирующихся на мнениях авторитетов, а не на точном знании. Ведь ИИ станет черпать это мнение из Интернета, и есть риск получить не научное знание, а срез общественной психологии или даже общественной психиатрии, что открывает путь к популяризации различных экстремистских идей. Ну и, конечно же, применение генераторов текстов школьниками и студентами для выполнения учебных заданий не годится никуда, поскольку оно приводит к атрофии способности думать, складно излагать свои мысли, искать источники информации и обрабатывать их содержимое.

Еще одним непрямым следствием использования ИИ для генерации научных статей станет изменение самого характера научных коммуникаций. В самом деле, если рейтинг ученого зависит от числа упоминаний его результатов, а эти упоминания появляются в результате исследования генеративным ИИ просторов Интернета, то значит и представлять результаты надо в такой форме, чтобы роботу было удобнее их находить. То есть научные сообщения в какой-то момент времени приобретут форму, предназначенную для робота, а не человека.

Вообще-то, мы уже однажды пережили похожую трансформацию, когда бумажные книги и журналы были вытеснены электронным контентом, а неоцифрованные фолианты, точнее содержащиеся в них знания, оказались почти вычеркнуты из оборота научной мысли. С переходом к массовой генерации текстов ИИ этот процесс будет окончательным и бумажное знание станет тайным.

Даешь орган аудита!

В попытках борьбы с перечисленными негативными явлениями научная мысль пока что бьется о стену. С одной стороны, невозможно остановить научно-технический прогресс, а системы ИИ развиваются со скоростью света. С другой стороны, созданием ИИ занимаются частные компании, которые не очень-то спешат с разрешением взглянуть на свою внутреннюю кухню и узнать, как и на какой базе учится их ИИ.

Не конструктивным считается и путь государственного регулирования деятельности ИИ по которому идут, например, ЕС и КНР: бюрократическая процедура требует длительных согласований, а скорость развития ИИ делает меры, принятые таким способом, устаревшими еще в момент согласования. В США даже не пытаются идти по пути госрегулирования и полагаются на саморегулирование: ведущие технологические компании согласились добровольно учитывать риски, связанные с развитием ИИ, с тем, чтобы «не пострадали американские права и свободы».

Последнее высказывание сразу вызывает вопрос: а не имеется ли в создаваемых американскими компаниями системах ИИ каких-то внутренних ограничений вроде трех законов Азимова, некой самоцензуры, ведь как иначе обеспечить нерушимость именно американских ценностей в глобальном мире с его разнообразием этих самых ценностей? Китайское госрегулирование, кстати, тоже предполагает соответствие ИИ китайским ценностям. На наличие самоцензуры уже намекает присутствие запретных тем, обнаруженных любознательными пользователями некоторых систем ИИ: искусственный разум наотрез отказывается обсуждать, скажем, геноцид индейцев испанцами и англосаксами или отвечать на сакраментальный вопрос «чей Крым?».

Ввиду такой ситуации разговоры специалистов сводятся к выработке морального кодекса ИИ и предложению сформировать независимый аудирующий орган, который станет сертифицировать системы ИИ для общественного использования. Этот орган будет удостоверять, что ИИ не воспроизводит лживой информации, не распространяет экстремистских идей, вызывающих ненависть, и вообще, на результаты его работы можно положиться.

Соответственно пользователи несертифицированного ИИ окажутся на положении маргиналов, которые могут что-то сделать, но предъявить это общественности оказывается затруднительно, поскольку в ее глазах они сделали неизвестно что. В нынешнем разделенном мире создание какого-то единого и авторитетного для всех аудирующего органа, впрочем, выглядит каким-то элементом синтетической реальности. А как оно будет в физической реальности — покажет будущее.


Кодекс ИИ

Так выглядит один из предложенных кодексов безопасного использования ИИ в научных исследованиях (из статьи Claudi L. Bockting е.а. «Living guidelines for generative AI — why scientists must oversee its use», Nature, октябрь 2023).

pic_2023_12_09.jpgИсследователи, рецензенты и редакторы научных журналов

1. Поскольку правдивость результатов, генерируемых искусственным интеллектом, не может быть гарантирована, а источники его информации не могут быть надежно отслежены и подтверждены, нужны люди, берущие на себя окончательную ответственность за научные результаты. Это означает, что проверка человеком необходима, по крайней мере, для следующих этапов исследовательского процесса:

• интерпретация и анализ данных;
• написание рукописей;
• оценка рукописей редакторами журналов;
• экспертная оценка;
• выявление пробелов в исследованиях;
• формулирование целей исследования;
• разработка гипотез.

2. Исследователи всегда должны указывать, для каких задач они использовали генеративный ИИ в научных публикациях или презентациях.

3. Исследователи должны указывать, какие инструменты генеративного ИИ они использовали в своей работе.

4. Чтобы придерживаться принципов открытой науки, исследователи должны предварительно зарегистрировать использование генеративного ИИ в научном исследовании и предоставить вместе с публикацией информацию о том, что было введено в ИИ и какой результат получен.

5. Исследователям, которые широко использовали в своей работе инструмент генеративного ИИ, рекомендуется повторить работу с помощью другого ИИ.

6. Научные журналы должны указывать использование ими генеративного ИИ для рецензирования или отбора статей.

7. Научные журналы должны спрашивать рецензентов, в какой степени они использовали генеративный ИИ для своей рецензии.

Разработчики ИИ

8. Разработчики генеративного ИИ должны предоставить подробную информацию об обучающих данных, настройках обучения и алгоритмах для больших языковых моделей (LLM) независимому органу аудита. Это должно быть сделано до того, как этот ИИ будет представлен обществу.

9. Разработчики генеративного ИИ должны делиться текущими адаптациями, обучающими наборами и алгоритмами с независимым органом аудита.

10. Независимый орган аудита и компании, занимающиеся генеративным ИИ, должны иметь портал, на котором пользователи, обнаружившие предвзятые или неточные ответы, могут легко сообщать о них.

Организации, финансирующие исследования

11. Политика в области исследований должна соответствовать жизненным принципам.

12. Организации, финансирующие исследования, не должны полностью полагаться на инструменты генеративного ИИ при оценке предложений о финансировании исследований, но всегда должны включать оценку человека.

13. Организации, финансирующие исследования, должны сообщать, что они используют инструменты генеративного ИИ для оценки исследовательских предложений.

 
 
Разные разности
Пирожное как источник топлива
На волне интереса к биотопливу появилась идея использовать невостребованные хлебобулочные изделия в качестве сырья для биотоплива. А почему бы и нет? Хлеб содержит много крахмала. Он легко расщепляется ферментами на молекулы сахара, которые затем дро...
Универсальное противоядие
Ученые Исследовательского института Скриппса изучили нейротоксины, вырабатываемые многочисленными ядовитыми змеями и создали универсальное противоядие против ядов крайтов, тайпанов, кобр и мамбы.
Быстрая мода против долгой жизни
Быстрая мода сделала брендовую одежду доступной для всех. Она стоит дешево, зато и внешний вид теряет быстро, уже через несколько недель активной носки, и надо идти покупать новую. Но быстрая мода — это вредный бизнес, опасный для окружающей сре...
Пишут, что...
…космический телескоп Джеймс Уэбб, наблюдавший за окружающей средой двух молодых протозвезд, обнаружил на крошечных частичках ледяной пыли многочисленные сложные органические молекулы… …газообразный водород из гидротермальных источников превра...