Keras est une bibliothèque de réseau de neurones fournissant une API de haut niveau en Python et R. Utilisez cette balise pour les questions relatives à l'utilisation de cette API. Veuillez également inclure la balise du langage / backend ([python], [r], [tensorflow], [theano], [cntk]) que vous utilisez. Si vous utilisez les keras intégrés de tensorflow, utilisez la balise [tf.keras].

Plus à propos keras...

J'utilise l'ensemble de données CIFAR-10 pour former certains modèles MLP. Je veux essayer l'augmentation des données en tant que bloc de code ci-dessous. learning_rate = 0.01 batch_size = 32 epoch = 50 (train_images, train_labels), (test_images, test_labels) = datasets.cifar10.load_data() # conve....
Je fais quelques lectures sur les fonctions de perte personnalisées dans tensorflow et je parcourais l'exemple fourni dans la page des tutoriels (voir le lien ci-dessous). https://www.tensorflow.org/tutorials/customization/custom_training_walkthrough Voici une perte simple fournie dans le lien. loss....
9 janv. 2022 à 23:19
Essayer de reconnaître les chiffres manuscrits en utilisant une architecture simple. Le test donne une précision de 0,9723 import tensorflow as tf from tensorflow.keras.datasets import mnist from tensorflow import keras from tensorflow.keras.layers import Dense, Flatten from sklearn.model_selection....
9 janv. 2022 à 12:58
J'ai créé un ensemble de données de y ~ x**2 Cependant, lorsque j'entraîne un réseau de neurones, il ne peut tout simplement pas correspondre à une équation quadratique. Ceci est mon modèle. model2 = tf.keras.models.Sequential( [tf.keras.layers.Dense(100, activation='relu'), tf.keras.laye....
9 janv. 2022 à 06:47
Comment obtenir la copie parfaite de ce réseau séquentiel Keras dans PyTorch ? model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28)), tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dense(10) ]) ....
Donc, en gros, je veux atteindre le même objectif que dans ce code mais dans TensorFlow def get_function(network, loader): ''' Collect function (features) from the self.network.module.forward_features() routine ''' features = [] for batch_idx, (inputs, targets) in enumerate(loader): ....
Je suis nouveau dans l'apprentissage en profondeur et je suis complètement confus au sujet de la terminologie. Dans la documentation Tensorflow, Pour [couche RNN] https://www.tensorflow.org /api_docs/python/tf/keras/layers/RNN#input_shape N-D tensor with shape [batch_size, timesteps, ...] Pour [c....
8 janv. 2022 à 07:17
J'essaie d'apprendre comment fonctionne keras.layers.SimpleRNN en suivant un tutoriel relativement simple (https://machinelearningmastery.com/understanding-simple-recurrent-neural-networks-in-keras/). Cependant, ce didacticiel suppose que l'entrée est scalaire et je n'ai pas pu l'adapter à des entr....
8 janv. 2022 à 05:37
J'ai écrit le modèle Keras TensorFlow à entrées multiples suivant : CHARPROTLEN = 25 #size of vocab CHARCANSMILEN = 62 #size of vocab protein_input = Input(shape=(train_protein.shape[1:])) compound_input = Input(shape=(train_smile.shape[1:])) #protein layers x = Embedding(input_dim=CHARPROTLEN+1,o....
J'ai utilisé ce qui suit pour faire des prédictions à partir de mon modèle keras : # fit the keras model on the dataset ker_model.fit(xtrain, ytrain, epochs=200, verbose=0) predictions = ker_model.predict(xtest) predictions = predictions.astype(int) predictions.mean() predictions Cependant, le ....
7 janv. 2022 à 18:46
J'ai encore du mal avec l'utilisation des ensembles de données tensorflow. Je charge à nouveau mes images via data = keras.preprocessing.image_dataset_from_directory( './data', labels='inferred', label_mode='binary', validation_split=0.2, subset="training", image_size=(img_height, ....
6 janv. 2022 à 19:05
J'ai donc essayé d'implémenter quelques pertes personnalisées et j'ai donc pensé que je commencerais par implémenter la perte SCE, sans utiliser l'objet TF intégré. Voici la fonction que j'ai écrite pour cela. def custom_loss(y_true, y_pred): print(y_true, y_pred) return tf.cast(tf.math.mul....
6 janv. 2022 à 15:48
J'ai 101 dossiers de 0 à 100 contenant des images d'entraînement synthétiques. C'est mon code : dataset = tf.keras.utils.image_dataset_from_directory( 'Pictures/synthdataset5', labels='inferred', label_mode='int', class_names=None, color_mode='rgb', batch_size=32, image_size=(128,128), shuffle=True....
J'ai ce fichier python dans lequel j'essaie d'entraîner un modèle GPT2 à partir de zéro. Pour la même chose, je souhaite utiliser le GPU pour une accélération plus rapide et je ne peux pas le faire. L'aide sera très appréciée Mon code python est le suivant. PS : j'exécute ce code sur AWS Sagemaker....
5 janv. 2022 à 09:42
J'ai le code suivant : from sklearn.datasets import fetch_openml import numpy as np import keras mnist = fetch_openml('mnist_784', version=1) X, y = mnist["data"], mnist["target"] y = y.astype(np.uint8) X_digits = [np.array(X.iloc[i]) for i in range(len(X))] X = np.array([some_digit.reshape(28....
5 janv. 2022 à 01:20
Je travaille sur le problème multi-label classification où mes données large-scale sont hautement imbalanced. Donc, je dois appliquer stratified sampling avec l'intuition que mon ImageDataGenerator échantillonne proportionnellement les données de each class dans every batch. Toute suggestion/solut....
4 janv. 2022 à 16:12
Si vous avez une couche MultiHeadAttention dans Keras, elle peut renvoyer des scores d'attention comme ceci : x, attention_scores = MultiHeadAttention(1, 10, 10)(x, return_attention_scores=True) Comment extraire les scores d'attention du graphe de réseau ? Je voudrais les représenter graphique....
4 janv. 2022 à 05:02
Comment puis-je enregistrer les images prétraitées (après l'application du prétraitement img_height et img_width) dans un dossier pour que je puisse les afficher ? Ceci est mon code pour le prétraitement des images à partir d'un répertoire. Mon modèle s'entraîne sur ces images prétraitées. def eval....
4 janv. 2022 à 04:47
J'utilise l'implémentation par défaut et de base de la classification de texte comme : tokenizer = Tokenizer(num_words=vocab_size, filters = filters) tokenizer.fit_on_texts(list(train_X)) train_X = tokenizer.texts_to_sequences(train_X) val_X = tokenizer.texts_to_sequences(val_X) train_....
3 janv. 2022 à 11:59
Je suis nouveau sur Keras et j'essaie d'utiliser l'encodeur automatique dans Keras à des fins de débruitage, mais je ne sais pas pourquoi la perte de mon modèle augmente rapidement ! J'ai appliqué l'autoencodeur sur cet ensemble de données : https://archive.ics.uci.edu/ml/datasets/Parkinson%27s+Dis....
2 janv. 2022 à 18:24
On nous a confié une mission dans laquelle nous étions censés implémenter notre propre réseau de neurones et deux autres réseaux de neurones déjà développés. Je l'ai fait et cependant, ce n'est pas l'exigence de la mission, mais je voudrais quand même savoir quelles sont les étapes/procédures que j....
Je joue un peu avec Tensorflow 2.7.0 et sa nouvelle couche TextVectorization. Cependant, quelque chose ne fonctionne pas tout à fait correctement dans cet exemple simple : import tensorflow as tf import numpy as np X = np.array(['this is a test', 'a nice test', 'best test this is']) vectorize_lay....
1 janv. 2022 à 18:54
J'ai converti un modèle Keras pour une utilisation avec OpenVino. Le modèle Keras original utilisait le sigmoïde pour renvoyer des scores allant de 0 à 1 pour la classification binaire. Après avoir converti le modèle pour une utilisation avec OpenVino, les scores sont tous proches de 0,99 pour les....
Pourquoi ma perte est-elle verticale dans l'intrigue ? J'entraîne un modèle de régression à plusieurs têtes avec une seule sortie dans Keras & TF. J'ai inclus les pertes pour les deux premières époques : 'history': {'loss': [87756.7265625, 15.339912414550781, 0.4351891875267029, 0.413672536611557, ....
1 janv. 2022 à 01:41
J'utilise un modèle d'entropie croisée binaire avec des valeurs Y non binaires et une couche d'activation sigmoïde. J'ai créé ma première fonction de perte personnalisée, mais lorsque je l'exécute, j'obtiens l'erreur "ValueError : aucun gradient fourni pour aucune variable : [....]" C'est ma fonctio....
1 janv. 2022 à 00:10