Model dengan jendela konteks kecil cenderung “melupakan” konten percakapan terkini, sehingga membuat pengguna keluar dari topik dengan cara yang bermasalah. GPT-4 Turbo hadir dengan menawarkan jendela konteks hingga 128.000 token – empat kali ukuran GPT-4 dan jendela konteks terbesar dari semua model yang tersedia secara komersial.
Keakuratan respons pada GPT-4 Turbo juga telah ditingkatkan dengan mendukung mode JSON baru yang memastikan bahwa model akan merespons JSON yang valid. Ke depannya, parameter baru lainnya dari GPT-4 Turbo yang terkait disebut akan memungkinkan pengembang untuk membuat model yang menghasilkan penyelesaian yang lebih“konsisten”.
Dengan demikian, OpenAI kembali menegaskan bahwa GPT-4 Turbo merupakan versi dengan kinerja yang lebih baik dan lebih murah dari GPT-4. Bahkan, GPT-4 Turbo disebut lebih berkemungkinan untuk mengembalikan parameter fungsi yang tepat.
“GPT-4 Turbo berkinerja lebih baik dibandingkan model kami sebelumnya pada tugas-tugas yang memerlukan instruksi yang diikuti dengan cermat, seperti menghasilkan format tertentu (misalnya 'selalu merespons dalam XML'),” tulis OpenAI.
“Dan GPT-4 Turbo lebih mungkin mengembalikan parameter fungsi yang tepat,” sambungnya. (Chasna Alifia Sya’bana)
(Saliki Dwi Saputra )