📖 Site oficial do TensorFlow (Documentação)
| # | Comando / Função / Classe | O que faz | Exemplo |
|---|---|---|---|
| 1 | pip install tensorflow | Instala a biblioteca principal via terminal | pip install tensorflow |
| 2 | import tensorflow as tf | Importa a biblioteca no script Python | import tensorflow as tf |
| 3 | tf.constant() | Cria um tensor constante | tf.constant([1, 2, 3]) |
| 4 | tf.Variable() | Cria um tensor mutável (pesos) | tf.Variable(2.0) |
| 5 | tf.zeros() | Cria tensor preenchido com zeros | tf.zeros([3, 3]) |
| 6 | tf.ones() | Cria tensor preenchido com uns | tf.ones([2, 2]) |
| 7 | tf.fill() | Preenche tensor com valor específico | tf.fill([2, 2], 9) |
| 8 | tf.eye() | Cria uma matriz identidade | tf.eye(3) |
| 9 | tf.random.normal() | Gera valores com distribuição normal | tf.random.normal([2, 2]) |
| 10 | tf.random.uniform() | Gera valores com distribuição uniforme | tf.random.uniform([5], 0, 1) |
| 11 | tf.cast() | Converte o tipo de dado do tensor | tf.cast(x, tf.float32) |
| 12 | tf.reshape() | Altera a forma (shape) de um tensor | tf.reshape(x, [1, 4]) |
| 13 | tf.keras.Sequential() | Cria modelo de camadas sequenciais | model = Sequential() |
| 14 | model.add() | Adiciona uma camada ao modelo | model.add(layers.Dense(10)) |
| 15 | model.compile() | Configura o processo de treino | model.compile(optimizer='adam', loss='mse') |
| 16 | model.fit() | Treina o modelo com os dados | model.fit(x_train, y_train, epochs=5) |
| 17 | model.evaluate() | Avalia a performance do modelo | model.evaluate(x_test, y_test) |
| 18 | model.predict() | Gera previsões para novos dados | model.predict(x_new) |
| 19 | model.summary() | Exibe arquitetura do modelo | model.summary() |
| 20 | model.save() | Salva o modelo completo em disco | model.save('meu_modelo.h5') |
| 21 | tf.keras.models.load_model() | Carrega um modelo salvo | tf.keras.models.load_model('model.h5') |
| 22 | layers.Dense() | Camada totalmente conectada | layers.Dense(64, activation='relu') |
| 23 | layers.Conv2D() | Camada de convolução 2D (imagens) | layers.Conv2D(32, (3,3)) |
| 24 | layers.MaxPooling2D() | Reduz dimensionalidade (subamostragem) | layers.MaxPooling2D(pool_size=(2,2)) |
| 25 | layers.Flatten() | Achata a entrada para 1D | layers.Flatten() |
| 26 | layers.Dropout() | Preveni overfitting desligando neurônios | layers.Dropout(0.2) |
| 27 | layers.LSTM() | Camada de rede recorrente Long-Short Term | layers.LSTM(128) |
| 28 | layers.BatchNormalization() | Normaliza as ativações da camada anterior | layers.BatchNormalization() |
| 29 | layers.Embedding() | Cria representações densas para NLP | layers.Embedding(input_dim=100, output_dim=4) |
| 30 | layers.Input() | Define a forma de entrada do modelo | layers.Input(shape=(28, 28)) |
| 31 | layers.concatenate() | Concatena múltiplos tensores/camadas | layers.concatenate([x1, x2]) |
| 32 | activation='relu' | Função de ativação ReLU | layers.Dense(32, activation='relu') |
| 33 | activation='sigmoid' | Função Sigmóide (probabilidade 0-1) | activation='sigmoid' |
| 34 | activation='softmax' | Ativação para classificação multiclasse | activation='softmax' |
| 35 | activation='tanh' | Função tangente hiperbólica | activation='tanh' |
| 36 | tf.keras.losses.MSE | Erro quadrático médio (regressão) | loss='mean_squared_error' |
| 37 | tf.keras.losses.BinaryCrossentropy | Perda para classificação binária | loss='binary_crossentropy' |
| 38 | tf.keras.losses.CategoricalCrossentropy | Perda para multiclasse (One-hot) | loss='categorical_crossentropy' |
| 39 | tf.keras.losses.SparseCategoricalCrossentropy | Perda para multiclasse (Inteiros) | loss='sparse_categorical_crossentropy' |
| 40 | tf.keras.optimizers.Adam() | Otimizador Adam (padrão popular) | optimizer=Adam(learning_rate=0.001) |
| 41 | tf.keras.optimizers.SGD() | Descida de gradiente estocástica | optimizer='sgd' |
| 42 | tf.keras.optimizers.RMSprop() | Otimizador RMSprop | optimizer='rmsprop' |
| 43 | metrics=['accuracy'] | Mede acurácia de classificação | metrics=['accuracy'] |
| 44 | metrics=['mae'] | Erro médio absoluto | metrics=['mae'] |
| 45 | callbacks.EarlyStopping() | Para o treino se a perda parar de cair | EarlyStopping(patience=3) |
| 46 | callbacks.ModelCheckpoint() | Salva o melhor modelo durante o treino | ModelCheckpoint('best.h5') |
| 47 | callbacks.TensorBoard() | Habilita visualização no TensorBoard | TensorBoard(log_dir='./logs') |
| 48 | callbacks.ReduceLROnPlateau() | Reduz taxa de aprendizado em estagnação | ReduceLROnPlateau() |
| 49 | tf.data.Dataset.from_tensor_slices() | Cria dataset a partir de arrays | Dataset.from_tensor_slices(data) |
| 50 | dataset.batch() | Divide o dataset em lotes | dataset.batch(32) |
| 51 | dataset.shuffle() | Embaralha os dados | dataset.shuffle(1000) |
| 52 | dataset.map() | Aplica função a todos elementos | dataset.map(lambda x: x/255) |
| 53 | dataset.prefetch() | Prepara lotes futuros (otimiza CPU/GPU) | dataset.prefetch(tf.data.AUTOTUNE) |
| 54 | tf.keras.preprocessing.image.load_img() | Carrega imagem de um caminho | load_img('cat.jpg') |
| 55 | tf.keras.preprocessing.text.Tokenizer() | Converte texto em sequências numéricas | tokenizer.fit_on_texts(sentencas) |
| 56 | tf.keras.utils.to_categorical() | Converte inteiros para One-hot encoding | to_categorical(labels) |
| 57 | tf.matmul() | Multiplicação de matrizes | tf.matmul(a, b) |
| 58 | tf.reduce_mean() | Calcula a média de elementos | tf.reduce_mean(tensor) |
| 59 | tf.reduce_sum() | Calcula a soma de elementos | tf.reduce_sum(tensor) |
| 60 | tf.argmax() | Retorna índice do maior valor | tf.argmax(predicoes, axis=1) |
| 61 | tf.square() | Calcula o quadrado de cada elemento | tf.square(x) |
| 62 | tf.nn.relu() | Aplica ReLU em um tensor | tf.nn.relu(x) |
| 63 | @tf.function | Transforma função Python em Grafo TF | @tf.function def treino(): |
| 64 | tf.GradientTape() | Grava operações para diferenciação automática | with tf.GradientTape() as tape: |
| 65 | tape.gradient() | Calcula gradientes das variáveis | tape.gradient(loss, model.weights) |
| 66 | tf.config.list_physical_devices('GPU') | Lista GPUs disponíveis | tf.config.list_physical_devices('GPU') |
| 67 | tf.device() | Especifica dispositivo para execução | with tf.device('/GPU:0'): |
| 68 | tf.__version__ | Verifica versão instalada | print(tf.__version__) |
| 69 | tf.expand_dims() | Adiciona dimensão ao tensor | tf.expand_dims(x, axis=0) |
| 70 | tf.squeeze() | Remove dimensões unitárias | tf.squeeze(x) |
| 71 | tf.concat() | Une tensores ao longo de um eixo | tf.concat([a, b], axis=0) |
| 72 | tf.stack() | Empilha tensores em nova dimensão | tf.stack([a, b]) |
| 73 | tf.unstack() | Desempilha tensores | tf.unstack(x) |
| 74 | tf.split() | Divide tensor em partes | tf.split(x, num_or_size_splits=3) |
| 75 | tf.transpose() | Transpõe as dimensões do tensor | tf.transpose(x) |
| 76 | tf.clip_by_value() | Limita valores entre um mínimo e máximo | tf.clip_by_value(x, 0, 1) |
| 77 | tf.math.exp() | Exponencial de um tensor | tf.math.exp(x) |
| 78 | tf.math.log() | Logaritmo natural de um tensor | tf.math.log(x) |
| 79 | tf.math.sqrt() | Raiz quadrada | tf.math.sqrt(x) |
| 80 | tf.abs() | Valor absoluto | tf.abs(x) |
| 81 | tf.identity() | Cria uma cópia do tensor | tf.identity(x) |
| 82 | tf.where() | Condicional elemento a elemento | tf.where(x > 0, x, 0) |
| 83 | tf.norm() | Calcula a norma do tensor | tf.norm(x) |
| 84 | tf.one_hot() | Cria tensores one-hot | tf.one_hot(indices, depth) |
| 85 | layers.GlobalAveragePooling2D() | Pooling global para reduzir parâmetros | layers.GlobalAveragePooling2D() |
| 86 | layers.TimeDistributed() | Aplica camada a cada passo temporal | layers.TimeDistributed(layers.Dense(8)) |
| 87 | layers.Bidirectional() | RNN que lê em ambos sentidos | layers.Bidirectional(layers.LSTM(10)) |
| 88 | layers.SimpleRNN() | Camada de rede recorrente simples | layers.SimpleRNN(32) |
| 89 | layers.AlphaDropout() | Dropout que mantém média/variância | layers.AlphaDropout(0.1) |
| 90 | layers.GaussianNoise() | Adiciona ruído gaussiano (regularização) | layers.GaussianNoise(0.1) |
| 91 | layers.LeakyReLU() | ReLU com pequena inclinação negativa | layers.LeakyReLU(alpha=0.01) |
| 92 | layers.Add() | Soma elemento a elemento de camadas | layers.Add()([x1, x2]) |
| 93 | layers.Multiply() | Multiplica elemento a elemento | layers.Multiply()([x1, x2]) |
| 94 | tf.keras.utils.plot_model() | Gera gráfico da arquitetura (imagem) | plot_model(model, to_file='m.png') |
| 95 | tf.keras.backend.clear_session() | Limpa estado global do Keras | tf.keras.backend.clear_session() |
| 96 | tf.keras.constraints.MaxNorm() | Limita o peso máximo dos neurônios | kernel_constraint=MaxNorm(3) |
| 97 | tf.keras.initializers.HeNormal() | Inicializador de pesos He | kernel_initializer='he_normal' |
| 98 | tf.keras.regularizers.l2() | Regularização L2 (Penalidade de pesos) | kernel_regularizer=l2(0.01) |
| 99 | tf.image.resize() | Redimensiona imagens via código | tf.image.resize(img, [224, 224]) |
| 100 | tf.image.flip_left_right() | Inverte imagem horizontalmente | tf.image.flip_left_right(img) |
| 101 | tf.image.rgb_to_grayscale() | Converte RGB para tons de cinza | tf.image.rgb_to_grayscale(img) |
| 102 | tf.io.read_file() | Lê conteúdo de arquivo binário | tf.io.read_file('path.jpg') |
| 103 | tf.strings.lower() | Converte strings para minúsculo | tf.strings.lower(texto) |
| 104 | tf.pad() | Adiciona preenchimento (padding) | tf.pad(tensor, paddings) |