ChatGPT тепер може генерувати зображення - і вони шокуюче деталізовані.
У середу OpenAI, стартап зі створення штучного інтелекту в Сан-Франциско, випустив нову версію свого генератора зображень DALL-E для невеликої групи тестувальників і вбудував технологію в ChatGPT, свого популярного онлайн-чат-бота.
За словами представників компанії, DALL-E 3 може створювати більш переконливі зображення, ніж попередні версії технології, демонструючи особливий хист до зображень, що містять літери, цифри і людські руки.
"Він набагато краще розуміє і представляє те, про що просить користувач", - сказав Адітья Рамеш, дослідник OpenAI, додавши, що технологія була створена для більш точного розуміння англійської мови.
Додаючи останню версію DALL-E до ChatGPT, OpenAI зміцнює свій чат-бот як хаб для генеративного ШІ, який може самостійно створювати текст, зображення, звуки, програмне забезпечення та інші цифрові медіа. Після того, як ChatGPT став вірусним в минулому році, він дав старт гонці між технологічними гігантами Кремнієвої долини за першість в області ШІ з досягненнями.
У вівторок Google випустив нову версію свого чат-бота Bard, який підключається до кількох найпопулярніших сервісів компанії, включаючи Gmail, YouTube і Docs. Midjourney і Stable Diffusion, два інших генератори зображень, оновили свої моделі цього літа.
OpenAI вже давно пропонує способи підключення свого чат-бота до інших онлайн-сервісів, включаючи Expedia, OpenTable і Вікіпедію. Але це перший випадок, коли стартап об'єднав чат-бота з генератором зображень.
Раніше DALL-E і ChatGPT були окремими додатками. Але з останньою версією люди можуть використовувати сервіс ChatGPT для створення цифрових зображень, просто описавши те, що вони хочуть бачити. Або ж вони можуть створювати зображення, використовуючи описи, згенеровані чат-ботом, що ще більше автоматизує створення графіки, мистецтва та інших медіа.
Цього тижня Габріель Го, дослідник OpenAI, продемонстрував, як ChatGPT тепер може генерувати детальні текстові описи, які потім використовуються для створення зображень. Наприклад, створивши опис логотипу ресторану Mountain Ramen, бот за лічені секунди згенерував кілька зображень на основі цього опису.
За словами пана Го, нова версія DALL-E може створювати зображення з багатоабзацних описів і чітко слідувати інструкціям, викладеним у найдрібніших деталях. Як і всі генератори зображень та інші системи штучного інтелекту, вона також схильна до помилок, сказав він.
Працюючи над вдосконаленням технології, OpenAI не буде ділитися DALL-E 3 з широкою громадськістю до наступного місяця. Після цього DALL-E 3 буде доступний через сервіс ChatGPT Plus, який коштує $20 на місяць.
Експерти попереджають, що технологія створення зображень може бути використана для поширення великої кількості дезінформації в Інтернеті. Щоб захиститися від цього в DALL-E 3, OpenAI включила інструменти, призначені для запобігання проблемним темам, таким як відверто сексуальні зображення і зображення публічних осіб. Компанія також намагається обмежити здатність DALL-E імітувати стилі конкретних художників.
В останні місяці ШІ використовується як джерело візуальної дезінформації. Серед інших прикладів - синтетична і не надто складна підробка вибуху в Пентагоні, що призвела до короткочасного падіння фондового ринку в травні. Експерти з питань голосування також занепокоєні тим, що ця технологія може бути використана зловмисниками під час великих виборів.
Сандхіні Агарвал, дослідниця OpenAI, яка займається питаннями безпеки та політики, сказала, що DALL-E 3, як правило, генерує зображення, які є більш стилізованими, ніж фотореалістичними. Проте вона визнала, що модель можна спонукати до створення переконливих сцен, таких як зернисті зображення, зняті камерами спостереження.
Здебільшого OpenAI не планує блокувати потенційно проблемний контент, що надходить з DALL-E 3. Пані Агарвал сказала, що такий підхід є "занадто широким", оскільки зображення можуть бути нешкідливими або небезпечними залежно від контексту, в якому вони з'являються.
"Це дійсно залежить від того, де вони використовуються, як люди про них говорять", - сказала вона.