Chạy dự đoán với Gemma bằng Keras

Xem trên ai.google.dev Chạy trong Google Colab Mở trong Vertex AI Xem nguồn trên GitHub

Phần hướng dẫn này chỉ cho bạn cách sử dụng Gemma với KerasNLP để chạy các phép suy luận và tạo văn bản. Gemma là một dòng mô hình mở, gọn nhẹ, hiện đại, được xây dựng dựa trên chính nghiên cứu và công nghệ dùng để tạo ra các mô hình Gemini. KerasNLP là một tập hợp các mô hình xử lý ngôn ngữ tự nhiên (NLP) được triển khai trong Keras và có thể chạy trên JAX, PyTorch và TensorFlow.

Trong hướng dẫn này, bạn sẽ sử dụng Gemma để tạo phản hồi bằng văn bản cho một số câu lệnh. Nếu mới sử dụng Keras, bạn có thể muốn đọc Bắt đầu với Keras trước khi bắt đầu, nhưng bạn không cần phải đọc bài viết này. Bạn sẽ tìm hiểu thêm về Keras khi thực hiện qua hướng dẫn này.

Thiết lập

Thiết lập Gemma

Để hoàn tất hướng dẫn này, trước tiên, bạn cần phải hoàn thành hướng dẫn thiết lập trong phần thiết lập Gemma. Hướng dẫn thiết lập Gemma chỉ cho bạn cách thực hiện những việc sau:

  • Truy cập vào Gemma trên kaggle.com.
  • Chọn một môi trường thời gian chạy Colab có đủ tài nguyên để chạy mô hình Gemma 2B.
  • Tạo và định cấu hình tên người dùng Kaggle và khoá API.

Sau khi thiết lập xong Gemma, hãy chuyển sang phần tiếp theo. Tại đây, bạn sẽ thiết lập các biến môi trường cho môi trường Colab của mình.

Đặt các biến môi trường

Thiết lập các biến môi trường cho KAGGLE_USERNAMEKAGGLE_KEY.

import os
from google.colab import userdata

# Note: `userdata.get` is a Colab API. If you're not using Colab, set the env
# vars as appropriate for your system.
os.environ["KAGGLE_USERNAME"] = userdata.get('KAGGLE_USERNAME')
os.environ["KAGGLE_KEY"] = userdata.get('KAGGLE_KEY')

Cài đặt phần phụ thuộc

Cài đặt Keras và KerasNLP.

# Install Keras 3 last. See https://keras.io/getting_started/ for more details.
pip install -q -U keras-nlp
pip install -q -U keras>=3

Chọn một phần phụ trợ

Keras là một API học sâu cấp cao, đa khung, được thiết kế để mang lại trải nghiệm đơn giản và dễ sử dụng. Keras 3 cho phép bạn chọn phần phụ trợ: TensorFlow, JAX hoặc PyTorch. Cả ba đều phù hợp với hướng dẫn này.

import os

os.environ["KERAS_BACKEND"] = "jax"  # Or "tensorflow" or "torch".
os.environ["XLA_PYTHON_CLIENT_MEM_FRACTION"] = "0.9"

Nhập gói

Nhập Keras và KerasNLP.

import keras
import keras_nlp

Tạo mô hình

KerasNLP cung cấp cách triển khai nhiều kiến trúc mô hình phổ biến. Trong hướng dẫn này, bạn sẽ tạo một mô hình bằng GemmaCausalLM, một mô hình Gemma toàn diện để lập mô hình ngôn ngữ quan hệ nhân quả. Mô hình ngôn ngữ nhân quả dự đoán mã thông báo tiếp theo dựa trên mã thông báo trước đó.

Tạo mô hình bằng phương thức from_preset:

gemma_lm = keras_nlp.models.GemmaCausalLM.from_preset("gemma_2b_en")
Attaching 'config.json' from model 'keras/gemma/keras/gemma_2b_en/1' to your Colab notebook...
Attaching 'config.json' from model 'keras/gemma/keras/gemma_2b_en/1' to your Colab notebook...
Attaching 'model.weights.h5' from model 'keras/gemma/keras/gemma_2b_en/1' to your Colab notebook...
Attaching 'tokenizer.json' from model 'keras/gemma/keras/gemma_2b_en/1' to your Colab notebook...
Attaching 'assets/tokenizer/vocabulary.spm' from model 'keras/gemma/keras/gemma_2b_en/1' to your Colab notebook...

Hàm GemmaCausalLM.from_preset() tạo thực thể cho mô hình từ một cấu trúc và trọng số đặt trước. Trong mã trên, chuỗi "gemma_2b_en" chỉ định giá trị đặt trước cho mô hình Gemma 2B với 2 tỷ tham số. Bạn cũng có thể sử dụng các mô hình Gemma với thông số 7B, 9B và 27B. Bạn có thể tìm thấy chuỗi mã cho mô hình Gemma trong trang thông tin Biến thể mô hình trên kaggle.com.

Sử dụng summary để biết thêm thông tin về mô hình này:

gemma_lm.summary()

Như bạn có thể thấy trong bản tóm tắt, mô hình này có 2,5 tỷ tham số có thể huấn luyện.

Tạo văn bản

Bây giờ, đã đến lúc tạo một số văn bản! Mô hình này có một phương thức generate để tạo văn bản dựa trên câu lệnh. Đối số max_length (không bắt buộc) chỉ định độ dài tối đa của trình tự được tạo.

Hãy dùng thử với câu lệnh "What is the meaning of life?".

gemma_lm.generate("What is the meaning of life?", max_length=64)
'What is the meaning of life?\n\nThe question is one of the most important questions in the world.\n\nIt’s the question that has been asked by philosophers, theologians, and scientists for centuries.\n\nAnd it’s the question that has been asked by people who are looking for answers to their own lives'

Hãy thử gọi lại generate bằng một lời nhắc khác.

gemma_lm.generate("How does the brain work?", max_length=64)
'How does the brain work?\n\nThe brain is the most complex organ in the human body. It is responsible for controlling all of the body’s functions, including breathing, heart rate, digestion, and more. The brain is also responsible for thinking, feeling, and making decisions.\n\nThe brain is made up'

Nếu đang chạy trên các phần phụ trợ JAX hoặc TensorFlow, bạn sẽ nhận thấy lệnh gọi generate thứ hai gần như trả về ngay lập tức. Điều này là do mỗi lệnh gọi đến generate cho một kích thước lô nhất định và max_length được biên dịch bằng XLA. Lần chạy đầu tiên tốn kém, nhưng các lần chạy tiếp theo nhanh hơn nhiều.

Bạn cũng có thể đưa ra lời nhắc theo lô bằng cách dùng một danh sách làm dữ liệu đầu vào:

gemma_lm.generate(
    ["What is the meaning of life?",
     "How does the brain work?"],
    max_length=64)
['What is the meaning of life?\n\nThe question is one of the most important questions in the world.\n\nIt’s the question that has been asked by philosophers, theologians, and scientists for centuries.\n\nAnd it’s the question that has been asked by people who are looking for answers to their own lives',
 'How does the brain work?\n\nThe brain is the most complex organ in the human body. It is responsible for controlling all of the body’s functions, including breathing, heart rate, digestion, and more. The brain is also responsible for thinking, feeling, and making decisions.\n\nThe brain is made up']

Không bắt buộc: Thử một trình lấy mẫu khác

Bạn có thể kiểm soát chiến lược tạo cho GemmaCausalLM bằng cách đặt đối số sampler trên compile(). Theo mặc định, hệ thống sẽ sử dụng phương thức lấy mẫu "greedy".

Hãy thử thiết lập một chiến lược "top_k":

gemma_lm.compile(sampler="top_k")
gemma_lm.generate("What is the meaning of life?", max_length=64)
'What is the meaning of life? That was a question I asked myself as I was driving home from work one night in 2012. I was driving through the city of San Bernardino, and all I could think was, “What the heck am I doing?”\n\nMy life was completely different. I'

Trong khi thuật toán tham lam mặc định luôn chọn mã thông báo có xác suất lớn nhất, thì thuật toán hàng đầu K sẽ chọn ngẫu nhiên mã thông báo tiếp theo trong số các mã thông báo có xác suất K hàng đầu.

Bạn không cần phải chỉ định trình lấy mẫu và có thể bỏ qua đoạn mã cuối cùng nếu đoạn mã đó không hữu ích cho trường hợp sử dụng của bạn. Nếu bạn muốn tìm hiểu thêm về các trình lấy mẫu có sẵn, hãy xem phần Trình lấy mẫu.

Bước tiếp theo

Trong hướng dẫn này, bạn đã tìm hiểu cách tạo văn bản bằng KerasNLP và Gemma. Sau đây là một số đề xuất cho bạn về những điều cần tìm hiểu tiếp theo: