TensorFlow est une bibliothèque et une API open source conçues pour l'apprentissage en profondeur, rédigées et gérées par Google. Utilisez cette balise avec une balise spécifique au langage ([python], [c ++], [javascript], [r], etc.) pour les questions sur l'utilisation de l'API pour résoudre les problèmes d'apprentissage automatique. Les langages de programmation pouvant être utilisés avec l'API TensorFlow varient, vous devez donc spécifier le langage de programmation. Veuillez également spécifier le domaine d'application tel que [détection d'objet].

Plus à propos tensorflow...

J'utilise l'ensemble de données CIFAR-10 pour former certains modèles MLP. Je veux essayer l'augmentation des données en tant que bloc de code ci-dessous. learning_rate = 0.01 batch_size = 32 epoch = 50 (train_images, train_labels), (test_images, test_labels) = datasets.cifar10.load_data() # conve....
Contexte J'ai un modèle tensorflow ssd320x320 bien entraîné de tensorflow-zoo. Les rapports sont assez bons car le journal du train indique un faible loss et le journal d'évaluation indique que 7 images de test sur 9 ont été détectées avec succès. Le modèle a été entraîné avec GPU et a été enregis....
Je fais quelques lectures sur les fonctions de perte personnalisées dans tensorflow et je parcourais l'exemple fourni dans la page des tutoriels (voir le lien ci-dessous). https://www.tensorflow.org/tutorials/customization/custom_training_walkthrough Voici une perte simple fournie dans le lien. loss....
9 janv. 2022 à 23:19
J'essaie de comprendre comment charger un fichier de données binaires à l'aide de FixedLengthRecordDataset : import tensorflow as tf import struct import numpy as np RAW_N = 2 + 20*20 + 1 def convert_binary_to_float_array(register): return struct.unpack('f'*RAW_N, register.numpy()) raw_datase....
Essayer de reconnaître les chiffres manuscrits en utilisant une architecture simple. Le test donne une précision de 0,9723 import tensorflow as tf from tensorflow.keras.datasets import mnist from tensorflow import keras from tensorflow.keras.layers import Dense, Flatten from sklearn.model_selection....
9 janv. 2022 à 12:58
J'ai créé un ensemble de données de y ~ x**2 Cependant, lorsque j'entraîne un réseau de neurones, il ne peut tout simplement pas correspondre à une équation quadratique. Ceci est mon modèle. model2 = tf.keras.models.Sequential( [tf.keras.layers.Dense(100, activation='relu'), tf.keras.laye....
9 janv. 2022 à 06:47
Comment obtenir la copie parfaite de ce réseau séquentiel Keras dans PyTorch ? model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28)), tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dense(10) ]) ....
Donc, en gros, je veux atteindre le même objectif que dans ce code mais dans TensorFlow def get_function(network, loader): ''' Collect function (features) from the self.network.module.forward_features() routine ''' features = [] for batch_idx, (inputs, targets) in enumerate(loader): ....
Je suis nouveau dans l'apprentissage en profondeur et je suis complètement confus au sujet de la terminologie. Dans la documentation Tensorflow, Pour [couche RNN] https://www.tensorflow.org /api_docs/python/tf/keras/layers/RNN#input_shape N-D tensor with shape [batch_size, timesteps, ...] Pour [c....
8 janv. 2022 à 07:17
J'ai écrit le modèle Keras TensorFlow à entrées multiples suivant : CHARPROTLEN = 25 #size of vocab CHARCANSMILEN = 62 #size of vocab protein_input = Input(shape=(train_protein.shape[1:])) compound_input = Input(shape=(train_smile.shape[1:])) #protein layers x = Embedding(input_dim=CHARPROTLEN+1,o....
Je veux utiliser for loop pour manipuler un tableau dans tf.data. Pour la méthode tf.while_loop actuelle, je dois faire correspondre les paramètres d'entrée avec la sortie, j'ai donc créé un tableau new_data à l'avance, puis utilisé tf.while_loop pour modifier le contenu du tableau de manière séque....
7 janv. 2022 à 09:59
Je travaille sur Convolution Tasnet, la taille du modèle que j'ai créé est d'environ 5,05 millions de variables. Je veux l'entraîner à l'aide de boucles d'entraînement personnalisées, et le problème est que, for i, (input_batch, target_batch) in enumerate(train_ds): # each shape is (64, 32000, 1) ....
7 janv. 2022 à 04:43
Je suis en train de créer un chatbot de transformateur médical à partir du tutoriel de cette page : https://blog.tensorflow.org/2019/05/transformer-chatbot-tutorial-with-tensorflow-2.html J'utilise un corpus textuel de questions/réponses médicales. Lorsque j'entraîne le modèle et que je le teste, i....
J'ai encore du mal avec l'utilisation des ensembles de données tensorflow. Je charge à nouveau mes images via data = keras.preprocessing.image_dataset_from_directory( './data', labels='inferred', label_mode='binary', validation_split=0.2, subset="training", image_size=(img_height, ....
6 janv. 2022 à 19:05
J'ai donc essayé d'implémenter quelques pertes personnalisées et j'ai donc pensé que je commencerais par implémenter la perte SCE, sans utiliser l'objet TF intégré. Voici la fonction que j'ai écrite pour cela. def custom_loss(y_true, y_pred): print(y_true, y_pred) return tf.cast(tf.math.mul....
6 janv. 2022 à 15:48
Je souhaite utiliser multiprocessing.pool dans tf.data pour accélérer ma fonction d'augmentation. Mais le résultat est plus lent que la normale pour la boucle. Multiprocessing.pool coût environ : 72s Coût normal de la boucle environ : 57 s Mon environnement : python3.6, tensorflow-gpu2.4.0, Ubuntu2....
J'entraîne un modèle via Tensorflow et je l'évalue via Tensorboard. Voici ma fonction de perte totale : Quelqu'un peut-il me dire quelle est l'unité de l'axe des y ? Au début, je pensais que ce serait une proportion, mais vous ne vous attendriez pas à ce que cela commence à partir de > 4. Je comp....
6 janv. 2022 à 10:40
Je suis aux prises avec un détail dans Tensorflow concernant la méthode map de Dataset comme décrit ici. L'exemple dataset = tf.data.Dataset.from_tensor_slices([1, 2, 3]) dataset = dataset.map(lambda x: x + 2) list(dataset.as_numpy_iterator()) Fonctionne bien, mais en changeant le type d'élément e....
6 janv. 2022 à 01:23
Je suis nouveau sur tf, je ne suis pas sûr que ma terminologie soit appropriée dans le titre. Fondamentalement, j'ai vu un exemple de code comme celui-ci qui transpose un tenseur et le multiplie en une matrice de poids. embed_dim = xl.shape[-1] w=tf.Variable(tf.random.truncated_normal(shape=(embed_....
5 janv. 2022 à 13:28
J'essaie de calculer le gradient en utilisant tape.gradient() mais cela me donne une mauvaise réponse. L'erreur se trouve dans les lignes u_z=tape.gradient(u,z,unconnected_gradients=tf.UnconnectedGradients.ZERO) et dans les deux lignes qui la suivent à partir du code ci-dessous. La fonction u n'es....
J'ai 101 dossiers de 0 à 100 contenant des images d'entraînement synthétiques. C'est mon code : dataset = tf.keras.utils.image_dataset_from_directory( 'Pictures/synthdataset5', labels='inferred', label_mode='int', class_names=None, color_mode='rgb', batch_size=32, image_size=(128,128), shuffle=True....
J'ai ce fichier python dans lequel j'essaie d'entraîner un modèle GPT2 à partir de zéro. Pour la même chose, je souhaite utiliser le GPU pour une accélération plus rapide et je ne peux pas le faire. L'aide sera très appréciée Mon code python est le suivant. PS : j'exécute ce code sur AWS Sagemaker....
5 janv. 2022 à 09:42
Je ne comprends pas parfaitement comment je devrais utiliser tf.gather_nd() pour ramasser des éléments le long d'un axe si j'ai un tenseur multidimensionnel. Prenons un petit exemple (si j'obtiens une réponse pour cet exemple simple, cela résout également mon problème d'origine plus complexe). Dis....
4 janv. 2022 à 22:43
Je souhaite extraire les données d'un ensemble de données tensorflow de manière cohérente dans des tableaux/tenseurs numpy. Je charge des images avec data = keras.preprocessing.image_dataset_from_directory( './data', labels='inferred', label_mode='binary', validation_split=0.2, subset....
4 janv. 2022 à 22:10
Je travaille sur le problème multi-label classification où mes données large-scale sont hautement imbalanced. Donc, je dois appliquer stratified sampling avec l'intuition que mon ImageDataGenerator échantillonne proportionnellement les données de each class dans every batch. Toute suggestion/solut....
4 janv. 2022 à 16:12