Вероятно, вы справились с этим, либо скопировав и вставив кучу контекста в окно чата, что является чем-то весьма специфичным для этих инструментов, которые мы можем максимально использовать. Или, может быть, вы попросили Bing отойти и поискать что-то. Это что-то, динамика, к которой мы очень привыкаем с этими инструментами, но она довольно специфична для больших языковых моделей, тот факт, что мы можем заполнить пробелы в долговременной памяти, как бы сбрасывая что-то в кратковременную память и прося ее работать с этим.
Интересно, что даже если мы не делаем этого, это то, что происходит в фоновом режиме в любом случае. Так что когда вы ведете разговор с ChatGPT, модель на самом деле не помнит Данные телеграммы Бельгии даже то, что она вам в последний раз отправила. Что происходит, так это то, что всякий раз, когда вы отправляете сообщение, запускается скрипт, который копирует весь этот разговор, и сообщение, которое вы отправляете, на самом деле является разговором между машиной и человеком, и вот вопрос в самом конце.
Что бы вы сказали дальше? То есть у него нет этой памяти, и нам полезно это знать, потому что мы на самом деле полагаемся на способность сбрасывать весь этот контекст в кратковременную память настолько, насколько это возможно, во всех этих видах взаимодействия, и здесь могут быть некоторые ограничения.
Контекстные окна
Контекстные окна
Раньше основным ограничением было то, сколько информации можно было вместить, и многие разговоры сводились к контекстным окнам.
Так что раньше было так, что вы не могли вставить туда так много информации. Мы достигли точки, когда вы действительно можете вставить довольно много. Так что с OpenAI GPT-4.5 вы можете вставить около 300 страниц текста. Anthropic, который является ключевым конкурентом, вы можете вставить туда около 500 страниц текста. Так что мы действительно достигли точки, когда я не хочу копировать и вставлять так много информации в каждое приглашение.