Навчання
Дослідники з OpenAI представили GPT-3 - алгоритм, який може виконувати різні завдання з написання тексту на основі всього декількох прикладів. У новій версії використовується та ж архітектура, що і в попередньому алгоритмі GPT-2, проте розробники збільшили кількість використовуваних у моделі параметрів до 175 мільярдів, навчивши модель на 570 гігабайтах тексту. У підсумку GPT-3 може відповідати на запитання за прочитаним текстом, писати вірші, розгадувати анаграми, вирішувати прості арифметичні приклади і навіть перекладати - і для цього їй потрібно небагато (від 10 до 100) прикладів того, як саме це робити. Докладний опис роботи алгоритму дослідники виклали на arXiv.org.