J'essaie de mettre en place une activation prelu à tensorflow 2.4.1, comme indiqué ici Comment implémenter Activation Prelu dans Tensorflow? Eu l'erreur suivante ValueError: Variable alpha already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarScope? Voici mon cod....
Existe-t-il un moyen de courir la régression logistique de Sklearn avec Tanh? Je sais que Tanh est meilleur quand les étiquettes sont {-1,1} et Sigmoid est préférable quand les étiquettes sont {0,1} Si je ne peux pas implémenter la régression logistique convertirait des étiquettes de {-1,1} -> {0, 1....
J'essaie de comprendre l'exemple de classification de texte {x0}} à https: //www.tensorflow .org / Tutoriels / Keras / Text_Classification. Ils définissent le modèle comme suit: model = tf.keras.Sequential([ layers.Embedding(max_features + 1, embedding_dim), layers.Dropout(0.2), layers.GlobalA....
Je voudrais savoir spécifiquement comment activer les neurones d'un réseau de neurones (les sorties de chaque neurone après la fonction d'activation) Comment puis-je obtenir les activations de tous les neurones d'un modèle séquentiel lorsque je donne une entrée lors de l'inférence des modèles dans T....
J'essaie d'implémenter une fonction d'activation personnalisée binaire dans la couche de sortie d'un modèle Keras. Ceci est mon procès: def binary_activation(x): ones = tf.ones(tf.shape(x), dtype=x.dtype.base_dtype) zeros = tf.zeros(tf.shape(x), dtype=x.dtype.base_dtype) def grad(dy): ....
12 févr. 2021 à 19:26
J'ai travaillé sur mon premier réseau neuronal, en le construisant entièrement à partir de zéro. Cependant, lors de l'impression de la fonction de coût pour suivre la progression des modèles, elle ne fait qu'augmenter, les données que j'utilise ne sont que de 1s, 0s I .......
J'ai suivi cette réponse en faisant: get_custom_objects (). Update (act_dispatcher) Où act_dispatcher est un dictionnaire avec toutes les fonctions d'activation que je veux ajouter comme {'fun_1': fun_1, 'fun_2': fun_2}. .......
J'ai essayé de créer un classificateur d'images avec CNN. Il y a 2300 images dans mon ensemble de données et deux catégories: hommes et femmes. Voici le modèle que j'ai utilisé: early_stopping = EarlyStopping(min_delta = 0.001, patience = 30, restore_best_weights = True) model = tf.keras.Sequentia....
J'ai écrit un modèle de tensorflow très basique où je veux prédire un nombre: import tensorflow as tf import numpy as np def HW_numbers(x): y = (2 * x) + 1 return y x = np.array([1.0,2.0,3.0,4.0,5.0,6.0,7.0], dtype=float) y = np.array(HW_numbers(x)) model = tf.keras.models.Sequential([tf....
Les images d'entrée sont régularisées à (0, 1) et la sortie est des valeurs float32 ayant une distribution pseudo gaussienne (-∞, ∞) Une fois ajustée, la précision du train et de la validation est supérieure à 0,999, mais lors de la prédiction à l'aide du train et de l'ensemble de validation, elle n....
Cela peut être une question très basique / triviale. Pour les entrées négatives, La sortie de la fonction d'activation ReLu est zéro La sortie de la fonction d'activation sigmoïde est zéro La sortie de la fonction d'activation Tanh est -1 Ci-dessous sont mentionnées mes questions: Pourquoi toutes l....
J'essaie de charger les poids de sauvegarde en utilisant keras load_model (). from keras.models import load_model model=load_model("weights.hdf5") C'est l'erreur que je reçois. ValueError Traceback (most recent call last) <ipython-input-34-52d6983dfc34> in <module>() ....
22 oct. 2019 à 12:25
J'essaie actuellement d'avoir plusieurs couches avec une activation personnalisée avec le nom cust_sig. Mais lorsque j'essaye de compiler le modèle, j'obtiens une ValueError déclenchée car plusieurs couches portent le même nom cust_sig. Je suis conscient que je peux changer manuellement le nom de ch....
12 oct. 2019 à 01:39
J'écris un programme pour prédire quand quelque chose se passera. Je ne sais pas quelle fonction d'activation obtenir la sortie le jour de la semaine (1-7). J'ai essayé la fonction sigmoïde mais je dois entrer le jour prédit et la probabilité en sortie, je ne veux pas que ce soit de cette façon. J'a....
Dans pytorch, un modèle de réseau de classification est défini comme suit, class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layer self.out = torch.nn.Li....
def newactivation(x): if x>0: return K.relu(x, alpha=0, max_value=None) else : return x * K.sigmoid(0.7* x) get_custom_objects().update({'newactivation': Activation(newactivation)}) J'essaie d'utiliser cette fonction d'activation pour mon modèle en keras, mais j'ai du mal à....
21 mars 2018 à 20:16
J'ai expérimenté des réseaux de neurones ces jours-ci. J'ai rencontré une question générale concernant la fonction d'activation à utiliser. C'est peut-être un fait bien connu mais je ne pouvais pas comprendre correctement. Beaucoup d'exemples et d'articles que j'ai vus travaillent sur des problèmes ....
Y a-t-il des pièges cachés ici? Même ReLU populaire est max (0, x) où nous allons permettre à la valeur maximale de passer et couper le négatif à zéro. Quel est le problème si nous autorisons les valeurs positives et négatives? Ou pourquoi réduisons-nous les valeurs négatives à zéro dans ReLU.....
Je travaille avec un réseau de neurones dans mon temps libre. J'ai déjà développé une opération XOR facile avec un réseau neuronal. Mais je ne sais pas quand je devrais utiliser la fonction d'activation correcte. Y a-t-il un truc ou est-ce juste une logique mathématique?....
5 juil. 2017 à 11:37
J'implémente un réseau de neurones et je voulais utiliser ReLU comme fonction d'activation des neurones. De plus, j'entraîne le réseau avec SDG et rétro-propagation. Je teste le réseau de neurones avec le problème paradigmatique XOR, et jusqu'à présent, il classe correctement les nouveaux échantil....
Supposons que vous ayez besoin de créer une fonction d'activation qui n'est pas possible en utilisant uniquement des blocs de construction tensorflow prédéfinis, que pouvez-vous faire? Ainsi, dans Tensorflow, il est possible de créer votre propre fonction d'activation. Mais c'est assez compliqué, i....
J'utilise le package sknn pour créer un réseau neuronal. Afin d'optimiser les paramètres du réseau neuronal pour l'ensemble de données que j'utilise, j'utilise un algorithme évolutif. Étant donné que le package me permet de créer un réseau neuronal où chaque couche a une fonction d'activation diff....