Dataset Viewer
Auto-converted to Parquet
_id
stringlengths
40
40
text
stringlengths
30
11.8k
1b2a0e8af5c1f18e47e71244973ce4ace4ac6034
Les a priori hiérarchiques du processus de Pitman-Yor sont des méthodes convaincantes pour l'apprentissage de modèles de langage, surpassant les méthodes basées sur l'estimation ponctuelle. Cependant, ces modèles restent impopulaires en raison de problèmes d'inférence computationnelle et statistique, tels que l'utilisation de la mémoire et du temps, ainsi que d'un mauvais mélange de l'échantillonneur. Dans ce travail, nous proposons un nouveau cadre qui représente le modèle HPYP de manière compacte à l'aide d'arbres de suffixes compressés. Ensuite, nous développons un schéma d'inférence approximatif efficace dans ce cadre qui a une empreinte mémoire beaucoup plus faible par rapport à HPYP complet et qui est rapide dans le temps d'inférence. Les résultats expérimentaux illustrent que notre modèle peut être construit sur des ensembles de données nettement plus grands par rapport aux modèles HPYP précédents, tout en étant plus petit de plusieurs ordres de grandeur, rapide pour l'entraînement et l'inférence, et surpassant jusqu'à 15 % la perplexité du lissage LM basé sur le nombre de Kneser-Ney modifié de pointe.
6c9bd4bd7e30470e069f8600dadb4fd6d2de6bc1
Cet article décrit une nouvelle ressource linguistique d'événements et de rôles sémantiques qui caractérisent les situations du monde réel. Les schémas narratifs contiennent des ensembles d'événements connexes (modifier et publier), un ordre temporel des événements (modifier avant de publier) et les rôles sémantiques des participants (les auteurs publient des livres). Ce type de connaissance du monde était au cœur des premières recherches sur la compréhension du langage naturel. Les scripts étaient l'un des principaux formalismes, représentant des séquences courantes d'événements qui se produisent dans le monde. Malheureusement, la plupart de ces connaissances étaient codées à la main et leur création prenait beaucoup de temps. Les techniques actuelles d'apprentissage automatique, ainsi qu'une nouvelle approche de l'apprentissage par le biais de chaînes de coréférence, nous ont permis d'extraire automatiquement une structure d'événement riche à partir de texte de domaine ouvert sous la forme de schémas narratifs. La ressource de schéma narratif décrite dans ce document contient environ 5000 événements uniques combinés dans des schémas de différentes tailles. Nous décrivons la ressource, comment elle est apprise et une nouvelle évaluation de la couverture de ces schémas par rapport aux documents invisibles.
8e508720cdb495b7821bf6e43c740eeb5f3a444a
De nombreuses applications dans les domaines de la parole, de la robotique, de la finance et de la biologie traitent des données séquentielles, où les questions d'ordre et les structures récurrentes sont courantes. Cependant, cette structure ne peut pas être facilement capturée par les fonctions standard du noyau. Pour modéliser une telle structure, nous proposons des fonctions de noyau fermées expressives pour les processus gaussiens. Le modèle résultant, GP-LSTM, encapsule entièrement les biais inductifs des réseaux récurrents de mémoire à long terme (LSTM), tout en conservant les avantages probabilistes non paramétriques des processus gaussiens. Nous apprenons les propriétés des noyaux proposés en optimisant la vraisemblance marginale du processus gaussien à l'aide d'une nouvelle procédure de gradient semi-stochastique dont la convergence est prouvée, et nous exploitons la structure de ces noyaux pour un entraînement et une prédiction évolutifs. Cette approche fournit une représentation pratique pour les LSTM bayésiens. Nous démontrons des performances de pointe sur plusieurs benchmarks et étudions en profondeur une application de conduite autonome conséquente, où les incertitudes prédictives fournies par GP-LSTM sont particulièrement précieuses.
033b62167e7358c429738092109311af696e9137
Cet article présente un algorithme d'apprentissage non supervisé simple permettant de classer les avis comme recommandés (pouce vers le haut) ou non recommandés (pouce vers le bas). La classification d'une revue est prédite par l'orientation sémantique moyenne des phrases de la revue qui contiennent des adjectifs ou des adverbes. Une phrase a une orientation sémantique positive lorsqu'elle comporte de bonnes associations (par exemple, « nuances subtiles ») et une orientation sémantique négative lorsqu'elle a de mauvaises associations (par exemple, « très cavalier »). Dans cet article, l'orientation sémantique d'une phrase est calculée comme l'information mutuelle entre l'expression donnée et le mot « excellent » moins l'information mutuelle entre l'expression donnée et le mot « médiocre ». Un avis est classé comme recommandé si l'orientation sémantique moyenne de ses phrases est positive. L'algorithme atteint une précision moyenne de 74 % lorsqu'il est évalué sur 410 avis d'Epinions, échantillonnés dans quatre domaines différents (avis sur les voitures, les banques, les films et les destinations de voyage). La précision varie de 84 % pour les critiques automobiles à 66 % pour les critiques de films.
0eaa75861d9e17f2c95bd3f80f48db95bf68a50c
L'électromigration (EM) est l'une des principales préoccupations à l'avenir pour la fiabilité des interconnexions dans la conception de circuits intégrés (CI). Bien que les concepteurs analogiques soient conscients du problème des EM depuis un certain temps, les circuits numériques sont également affectés maintenant. Cet exposé aborde les problèmes de conception de base et leurs effets sur l'électromigration lors de la conception physique d'interconnexion. L'intention est d'augmenter les limites de densité de courant dans l'interconnexion en adoptant des mesures inhibitrices d'électromigration, telles que les effets de courte longueur et de réservoir. L'exploitation de ces effets au stade de l'implantation peut apporter un soulagement partiel des préoccupations EM dans les flux de conception de circuits intégrés à l'avenir.
45e2e2a327ea696411b212492b053fd328963cc3
Les applications biologiques sont prometteuses pour servir d'intervention sur le mode de vie en santé publique afin de promouvoir le bien-être et d'atténuer les maladies chroniques, mais on sait peu de choses sur la façon dont les personnes atteintes de maladies chroniques utilisent ou perçoivent les applications mobiles. L'objectif de cette étude était d'explorer les comportements et les perceptions des applications de téléphonie mobile pour la santé chez les personnes atteintes de maladies chroniques. Les données ont été recueillies à partir d'une enquête transversale nationale menée auprès de 1604 utilisateurs de téléphones mobiles aux États-Unis, qui a évalué l'utilisation, les croyances et les préférences en matière de santé mobile. Cette étude a examiné l'utilisation d'applications de santé, la raison du téléchargement et l'efficacité perçue par maladie chronique. RÉSULTATSD'un commun participant, ayant entre 1 et 5 applications, a été signalé par 38,9 % (314/807) des répondants sans condition et par 6,6 % (24/364) des répondants souffrant d'hypertension. L'utilisation d'applications de santé a été signalée 2 fois ou plus par jour par 21,3 % (172/807) des répondants sans maladie, 2,7 % (10/364) souffrant d'hypertension, 13,1 % (26/198) d'obésité, 12,3 % (20/163) de diabète, 12,0 % (32/267) de dépression et 16,6 % (53/319) d'hypercholestérolémie. Les résultats de la régression logistique n'ont pas indiqué de différence significative dans le téléchargement d'applications de santé entre les personnes avec et sans problèmes de santé chroniques (P>,05). Par rapport aux personnes en mauvaise santé, le téléchargement d'applications de santé était plus probable chez les personnes ayant déclaré être en très bonne santé (rapport des cotes [RC] 3,80, IC à 95 % 2,38-6,09, P<,001) et en excellente santé (RC 4,77, IC à 95 % 2,70-8,42, P<,001). De même, par rapport aux personnes qui déclarent ne jamais ou rarement faire de l'activité physique, le téléchargement d'applications de santé était plus probable chez ceux qui déclarent faire de l'exercice 1 jour par semaine (RC 2,47, IC à 95 % 1,6-3,83, P<.001), 2 jours par semaine (RC 4,77, IC à 95 % 3,27-6,94, P<,001), 3 à 4 jours par semaine (RC 5,00, IC à 95 % 3,52-7,10, P<.001), et 5 à 7 jours par semaine (RC 4,64, IC à 95 % 3,11-6,92, P<,001). Tous les résultats de la régression logistique ont été pris en compte pour l'âge, le sexe et la race ou l'origine ethnique. CONCLUSIONSLes résultats de cette étude suggèrent que les personnes ayant une mauvaise santé autodéclarée et de faibles taux d'activité physique, sans doute celles qui bénéficieront le plus des applications de santé, étaient les moins susceptibles de déclarer télécharger et utiliser ces outils de santé.
1935e0986939ea6ef2afa01eeef94dbfea6fb6da
L'analyse de portefeuille moyenne-variance a fourni le premier traitement quantitatif de l'arbitrage entre le profit et le risque. Nous décrivons en détail l'interaction entre l'objectif et les contraintes dans un certain nombre de variantes à période unique, y compris les modèles de semi-variance. Un accent particulier est mis sur la prévention de la pénalisation de la surperformance. Les résultats sont ensuite utilisés comme blocs de construction dans le développement et l'analyse théorique de modèles multipériodes basés sur des arbres de scénarios. L'une des principales caractéristiques est la possibilité de retirer l'argent excédentaire dans les décisions futures, ce qui permet de minimiser approximativement le risque de baisse.
0e1431fa42d76c44911b07078610d4b9254bd4ce
Une nouvelle méthode pour effectuer une forme non linéaire d'analyse en composantes principales est proposée. En utilisant des fonctions de noyau d'opérateur intégral, on peut calculer efficacement des composants principaux dans des espaces de caractéristiques de grande dimension, liés à l'espace d'entrée par une application non linéaire, par exemple, l'espace de tous les produits possibles de cinq pixels dans 16 16 images. Nous donnons la dérivation de la méthode et présentons des résultats expérimentaux sur l'extraction de caractéristiques polynomiales pour la reconnaissance de formes.
292eee24017356768f1f50b72701ea636dba7982
Nous présentons une méthode de localisation et de reconnaissance automatique d'objets dans des nuages de points 3D représentant des scènes urbaines extérieures. La méthode est basée sur le cadre des modèles de forme implicites (ISM), qui reconnaît les objets en votant pour leur emplacement central. Il ne nécessite que quelques exemples de formation par classe, ce qui est une propriété importante pour une utilisation pratique. Nous introduisons et évaluons également une version améliorée du descripteur d'image de spin, plus robuste à la variation de densité ponctuelle et à l'incertitude dans l'estimation de la direction normale. Nos expériences révèlent un impact significatif de ces modifications sur les performances de reconnaissance. Nous comparons nos résultats à ceux de la méthode de pointe et obtenons une amélioration significative de la précision et de la mémorisation sur l'ensemble de données de l'Ohio, composé de balayages LiDAR aériens et terrestres combinés de 150 000 m de zone urbaine au total.
922b5eaa5ca03b12d9842b7b84e0e420ccd2feee
Une classe importante de problèmes théoriques et pratiques en matière de communication et de contrôle est de nature statistique. Ces problèmes sont les suivants : i) prédiction de signaux aléatoires ; ii) séparation des signaux aléatoires et du bruit aléatoire ; (iii) détection de signaux de forme connue (impulsions, sinusoïdes) en présence de bruit aléatoire. Dans ses travaux pionniers, Wiener [1]3 a montré que les problèmes (i) et (ii) conduisent à l'équation intégrale dite de Wiener-Hopf ; Il a également donné une méthode (factorisation spectrale) pour la résolution de cette équation intégrale dans le cas particulier pratiquement important de la statistique stationnaire et des spectres rationnels. De nombreuses extensions et généralisations ont suivi le travail de base de Wiener. Zadeh et Ragazzini ont résolu le cas de la mémoire finie [2]. En même temps et indépendamment de Bode et Shannon [3], ils ont également donné une méthode simplifiée [2) de solution. Booton a discuté de l'équation non stationnaire de Wiener-Hopf [4]. Ces résultats sont maintenant dans des textes standard [5-6]. Une approche quelque peu différente dans ce sens a été donnée récemment par Darlington [7]. Pour des extensions aux signaux échantillonnés, voir, par exemple, Franklin [8], Lees [9]. Une autre approche basée sur les fonctions propres de l'équation de WienerHopf (qui s'applique également aux problèmes non stationnaires alors que les méthodes précédentes ne le font généralement pas), a été mise au point par Davis [10] et appliquée par beaucoup d'autres, par exemple, Shinbrot [11], Blum [12], Pugachev [13], Solodovnikov [14]. Dans tous ces travaux, l'objectif est d'obtenir la spécification d'un système dynamique linéaire (filtre de Wiener) qui accomplit la prédiction, la séparation ou la détection d'un signal aléatoire.4 ——— 1 Cette recherche a été financée en partie par l'Office of Scientific Research de l'U.S. Air Force dans le cadre du contrat AF 49 (638)-382. 2 7212, avenue Bellona 3 Les chiffres entre parenthèses désignent les références à la fin de l'article. 4 Bien sûr, en général, ces tâches peuvent être mieux accomplies par des filtres non linéaires. À l'heure actuelle, cependant, on sait peu ou rien sur la façon d'obtenir (à la fois théoriquement et pratiquement) ces filtres non linéaires. Contribution de la Division des instruments et régulateurs et présenté à la Conférence sur les instruments et les régulateurs, du 29 mars au 2 avril 1959, de la AMERICAN SOCIETY OF MECHANICAL ENGINEERS. REMARQUE : Les déclarations et les opinions avancées dans les articles doivent être comprises comme des expressions individuelles de leurs auteurs et non comme celles de la Société. Manuscrit reçu au siège de l'ASME, le 24 février 1959. Document n° 59-IRD—11. Une nouvelle approche des problèmes de filtrage linéaire et de prédiction
e50a316f97c9a405aa000d883a633bd5707f1a34
Les preuves expérimentales accumulées au cours des 20 dernières années indiquent que les systèmes d'indexation de texte basés sur l'attribution de termes uniques pondérés de manière appropriée produisent des résultats de recherche supérieurs à ceux obtenus avec d'autres représentations de texte plus élaborées. Ces résultats dépendent de manière cruciale du choix de systèmes efficaces de pondération par terme. Cet article résume les connaissances acquises grâce à la pondération automatique des termes et fournit des modèles d'indexation de terme unique de base avec lesquels d'autres procédures d'analyse de contenu plus élaborées peuvent être comparées. 1. ANALYSE AUTOMATIQUE DE TEXTE À la fin des années 1950, Luhn [l] a suggéré pour la première fois que des systèmes de recherche automatique de texte pourraient être conçus sur la base d'une comparaison d'identificateurs de contenu attachés à la fois aux textes stockés et aux requêtes d'information des utilisateurs. En règle générale, certains mots extraits des textes des documents et des requêtes sont utilisés pour l'identification du contenu ; Alternativement, les représentations de contenu pourraient être choisies manuellement par des indexeurs formés et familiers avec les domaines à l'étude et avec le contenu des collections de documents. Dans les deux cas, les documents seraient représentés par des vecteurs de termes de la forme D= (ti,tj,... ytp) (1) où chaque tk identifie un terme de contenu attribué à un exemple de document D. De même, les demandes d'informations, ou requêtes, seraient représentées soit sous forme vectorielle, soit sous forme d'instructions booléennes. Ainsi, une requête typique Q pourrait être formulée comme Q = (qa,qbr.. . . ,4r) (2)
6ac15e819701cd0d077d8157711c4c402106722c
Ce rapport technique décrit l'approche de l'équipe MIT dans le cadre du DARPA Urban Challenge. Nous avons développé une nouvelle stratégie pour utiliser de nombreux capteurs peu coûteux, montés à la périphérie du véhicule et calibrés avec une nouvelle technique d'étalonnage intermodal. Les flux de données lidar, de caméra et radar sont traités à l'aide d'une représentation d'état innovante et localement fluide qui fournit une perception robuste pour un contrôle autonome en temps réel. Une architecture de planification et de contrôle résiliente a été développée pour la conduite dans le trafic, composée d'une combinaison innovante d'algorithmes éprouvés pour la planification de mission, la planification situationnelle, l'interprétation situationnelle et le contrôle de trajectoire. Ces innovations sont intégrées dans deux nouveaux véhicules robotisés équipés pour la conduite autonome en milieu urbain, avec des tests approfondis lors d'un cours de visite sur site de la DARPA. Les résultats expérimentaux démontrent toutes les navigations de base et certains comportements de base du trafic, y compris la conduite autonome inoccupée, le suivi de voie à l'aide du contrôle purepursuit et de notre stratégie de perception locale du cadre, l'évitement d'obstacles à l'aide de la planification de trajectoire kinodynamique RRT, les demi-tours et l'évaluation de la priorité parmi les autres voitures aux intersections à l'aide de notre interpréteur de situation. Nous travaillons à étendre ces approches à des scénarios avancés de navigation et de circulation. † Résumé Ce rapport technique décrit l'approche de l'équipe MIT à l'égard du DARPA Urban Challenge. Nous avons développé une nouvelle stratégie pour utiliser de nombreux capteurs peu coûteux, montés à la périphérie du véhicule et calibrés avec une nouvelle technique d'étalonnage intermodal. Les flux de données lidar, de caméra et radar sont traités à l'aide d'une représentation d'état innovante et localement lisse qui fournit une perception robuste pour un contrôle autonome en temps réel. Une architecture de planification et de contrôle résiliente a été développée pour la conduite dans le trafic, composée d'une combinaison innovante d'algorithmes éprouvés pour la planification de mission, la planification situationnelle, l'interprétation situationnelle et le contrôle de trajectoire. Ces innovations sont intégrées dans deux nouveaux véhicules robotisés équipés pour la conduite autonome en milieu urbain, avec des tests approfondis lors d'un cours de visite sur site de la DARPA. Les résultats expérimentaux démontrent toutes les navigations de base et certains comportements de base du trafic, y compris la conduite autonome inoccupée, le suivi de voie à l'aide du contrôle de poursuite pure et notre stratégie de perception locale du cadre, l'évitement d'obstacles à l'aide de la planification de trajectoire kino-dynamique RRT, les demi-tours et l'évaluation de la priorité parmi les autres voitures aux intersections à l'aide de notre interprète situationnel. Nous travaillons à étendre ces approches à des scénarios avancés de navigation et de circulation. AVERTISSEMENT : Les informations contenues dans ce document ne représentent pas les politiques officielles, expresses ou implicites, de la Defense Advanced Research Projects Agency (DARPA) ou du ministère de la Défense. La DARPA ne garantit pas l'exactitude ou la fiabilité des informations contenues dans ce document. Soutien supplémentaire ...
e275f643c97ca1f4c7715635bb72cf02df928d06
null
1e55bb7c095d3ea15bccb3df920c546ec54c86b5
null
8acaebdf9569adafb03793b23e77bf4ac8c09f83
Nous présentons l'analyse et la conception de guides d'ondes à base de plasmons de surface à polariton de longueur physique fixe avec retard réglable à des fréquences térahertz. Le retard réglable est obtenu à l'aide de lignes de Goubau planes ondulées (CPGL) en modifiant sa profondeur d'ondulation sans modifier la longueur physique totale du guide d'ondes. Les résultats de notre simulation montrent que des longueurs électriques de 237,9°, 220,6° et 310,6° peuvent être obtenues par des longueurs physiques de 250 μm et 200 μm à 0,25, 0,275 et 0,3 THz, respectivement, à des fins de démonstration. Les résultats de ces simulations sont également cohérents avec nos calculs analytiques utilisant les paramètres physiques et les propriétés des matériaux. Lorsque nous combinons des paires de lignes à retard de même longueur comme s'il s'agissait de deux branches d'un déphaseur térahertz, nous avons obtenu un taux d'erreur d'estimation du déphasage relatif supérieur à 5,8 %. À notre connaissance, il s'agit de la première démonstration de lignes à retard CPGL basées sur une parodie de surface Plasmon Polariton réglable. L'idée peut être utilisée pour obtenir des lignes à retard accordables avec des longueurs fixes et des déphaseurs pour les circuits de la bande térahertz.
325d145af5f38943e469da6369ab26883a3fd69e
À partir d'une photographie en niveaux de gris, cet article s'attaque au problème de l'hallucination d'une version couleur plausible de la photographie. Ce problème est clairement sous-limité, de sorte que les approches précédentes reposaient soit sur une interaction significative de l'utilisateur, soit aboutissaient à des colorisations désaturées. Nous proposons une approche entièrement automatique qui produit des colorisations vibrantes et réalistes. Nous acceptons l'incertitude sous-jacente du problème en le posant comme une tâche de classification et utilisons le rééquilibrage de classe au moment de l'entraînement pour augmenter la diversité des couleurs dans le résultat. Le système est mis en œuvre sous forme de prédiction dans un CNN au moment du test et est entraîné sur plus d'un million d'images couleur. Nous évaluons notre algorithme à l'aide d'un « test de Turing de colorisation », demandant aux participants humains de choisir entre une image couleur générée et une image couleur de réalité terrain. Notre méthode réussit à tromper les humains dans 32 % des essais, ce qui est nettement supérieur aux méthodes précédentes. De plus, nous montrons que la colorisation peut être un prétexte puissant pour l'apprentissage auto-supervisé des fonctionnalités, agissant comme un encodeur cross-canal. Cette approche se traduit par des performances de pointe sur plusieurs benchmarks d'apprentissage de fonctionnalités.
57bbbfea63019a57ef658a27622c357978400a50
null
7ffdf4d92b4bc5690249ed98e51e1699f39d0e71
Pour la première fois, une antenne réseau phasée entièrement intégrée avec des commutateurs de systèmes microélectromécaniques de radiofréquence (RF MEMS) sur un substrat organique flexible est démontrée au-dessus de 10 GHz. Un amplificateur à faible bruit (LNA), un déphaseur MEMS et un réseau d'antennes 2 fois 2 patch sont intégrés dans un système sur boîtier (SOP) sur un substrat polymère à cristaux liquides. Deux réseaux d'antennes sont comparés ; l'une mise en œuvre à l'aide d'une POS monocouche et la seconde à l'aide d'une POS multicouche. Les deux implémentations sont à faible perte et capables d'une orientation de faisceau de 12 degrés. La fréquence nominale est de 14 GHz et l'affaiblissement de retour mesuré est supérieur à 12 dB pour les deux implémentations. L'utilisation d'un LNA permet d'obtenir un niveau de puissance rayonnée beaucoup plus élevé. Ces antennes peuvent être personnalisées pour répondre à presque toutes les tailles, fréquences et performances requises. Cette recherche approfondit l'état de l'art pour les dispositifs SOP organiques.
d00ef607a10e5be00a9e05504ab9771c0b05d4ea
Les commutateurs à semi-conducteurs haute tension tels que les transistors bipolaires à grille isolée (IGBT) sont disponibles dans le commerce jusqu'à 6,5 kV. De telles tensions nominales sont attrayantes pour les applications de puissance pulsée et de convertisseur à découpage haute tension. Cependant, à mesure que les tensions nominales IGBT augmentent, le taux d'augmentation et de descente du courant est généralement réduit. Ce compromis est difficile à éviter, car les IGBT doivent maintenir une faible résistance dans la couche épitaxiale ou la couche de la région de dérive. Pour les IGBT à haute tension avec des régions de dérive épaisses pour prendre en charge la tension inverse, les concentrations élevées de porteuses requises sont injectées à l'allumage et retirées à l'arrêt, ce qui ralentit la vitesse de commutation. Une option pour une commutation plus rapide consiste à utiliser en série plusieurs IGBT à tension nominale inférieure. Un prototype de pile IGBT avec six IGBT de 1200 V en série a été testé expérimentalement. La pile IGBT de six séries se compose de pilotes de grille individuels, isolés optiquement, et de plaques de refroidissement en aluminium pour le refroidissement par air forcé, ce qui permet d'obtenir un ensemble compact. Chaque IGBT est protégé contre les surtensions par des suppresseurs de tension transitoire. Le temps de montée du courant d'activation de la pile IGBT de six séries et d'un seul IGBT de 6,5 kV a été mesuré expérimentalement dans un circuit de décharge de condensateur à charge résistive pulsée. La pile IGBT a également été comparée à deux modules IGBT en série, chacun évalué à 3,3 kV, dans une application de circuit élévateur commutant à 9 kHz et produisant une sortie de 5 kV. La pile IGBT de six séries permet d'améliorer la vitesse de commutation à l'allumage et d'augmenter considérablement l'efficacité du convertisseur d'amplification de puissance en raison d'une queue de courant réduite lors de l'arrêt. Les paramètres des tests expérimentaux et les résultats des tests de comparaison sont discutés dans l'article suivant
20f5b475effb8fd0bf26bc72b4490b033ac25129
Nous présentons une approche robuste et en temps réel de la détection des marquages au sol dans les rues urbaines. Il est basé sur la génération d'une vue de dessus de la route, le filtrage à l'aide de filtres gaussiens orientés sélectifs, l'utilisation de l'ajustement de ligne RANSAC pour donner des suppositions initiales à un nouvel algorithme RANSAC rapide pour l'ajustement des splines de Bézier, qui est ensuite suivi d'une étape de post-traitement. Notre algorithme peut détecter toutes les voies dans des images fixes de la rue dans diverses conditions, tout en fonctionnant à un taux de 50 Hz et en obtenant des résultats comparables aux techniques précédentes.
e6bef595cb78bcad4880aea6a3a73ecd32fbfe06
L'augmentation exponentielle de la disponibilité des avis et des recommandations en ligne fait de la classification des sentiments un sujet intéressant dans la recherche universitaire et industrielle. Les avis peuvent couvrir tellement de domaines différents qu'il est difficile de recueillir des données d'entraînement annotées pour chacun d'entre eux. Par conséquent, cet article étudie le problème de l'adaptation de domaine pour les classificateurs de sentiments, par conséquent, un système est entraîné sur des avis étiquetés d'un domaine source mais est destiné à être déployé sur un autre. Nous proposons une approche d'apprentissage profond qui apprend à extraire une représentation significative pour chaque avis de manière non supervisée. Les classificateurs de sentiments entraînés avec cette représentation de fonctionnalité de haut niveau surpassent clairement les méthodes de pointe sur un benchmark composé d'avis sur 4 types de produits Amazon. De plus, cette méthode s'adapte bien et nous a permis d'effectuer avec succès l'adaptation de domaines sur un ensemble de données industriel plus large de 22 domaines.
7cbbe0025b71a265c6bee195b5595cfad397a734
Les gens interagissent fréquemment avec les chaises, ce qui en fait un endroit potentiel pour effectuer des détections implicites de la santé qui ne nécessitent aucun effort supplémentaire de la part des utilisateurs. Nous avons interrogé 550 participants pour comprendre comment les gens s'assoient sur des chaises et éclairer la conception d'une chaise qui détecte le rythme cardiaque et respiratoire à partir des accoudoirs et des dossiers de la chaise, respectivement. Dans une étude en laboratoire portant sur 18 participants, nous avons évalué une gamme de positions assises courantes pour déterminer quand la détection de la fréquence cardiaque et de la fréquence respiratoire était possible (32 % du temps pour la fréquence cardiaque, 52 % pour la fréquence respiratoire) et évaluer la précision de la fréquence détectée (83 % pour la fréquence cardiaque, 73 % pour la fréquence respiratoire). Nous discutons des défis liés au déplacement de cette détection dans la nature en évaluant une étude in situ totalisant 40 heures avec 11 participants. Nous montrons que, en tant que capteur implicite, le fauteuil peut collecter des données de signes vitaux auprès de son occupant par une interaction naturelle avec le fauteuil.
bf003bb2d52304fea114d824bc0bf7bfbc7c3106
null
9a59a3719bf08105d4632898ee178bd982da2204
Le véhicule autonome est un robot mobile intégrant une navigation et un positionnement multicapteurs, une prise de décision intelligente et une technologie de contrôle. Cet article présente l'architecture du système de contrôle du véhicule autonome, appelé « Intelligent Pioneer », et le suivi de trajectoire et la stabilité du mouvement pour naviguer efficacement dans des environnements inconnus sont discutés. Dans cette approche, un modèle dynamique à deux degrés de liberté est développé pour formuler le problème de suivi de trajectoire au format d'espace d'état. Pour contrôler l'erreur de chemin instantanée, les contrôleurs traditionnels ont du mal à garantir les performances et la stabilité sur une large gamme de changements de paramètres et de perturbations. Par conséquent, un contrôleur PID adaptatif nouvellement développé sera utilisé. En utilisant cette approche, la flexibilité du système de contrôle du véhicule sera augmentée et obtiendra de grands avantages. Tout au long de l'étude, nous présentons des exemples et des résultats d'Intelligent Pioneer et du véhicule autonome utilisant cette approche qui a participé au Future Challenge of China en 2010 et 2011. Intelligent Pioneer a terminé tous les programmes de compétition et a remporté la première position en 2010 et la troisième position en 2011.
7592f8a1d4fa2703b75cad6833775da2ff72fe7b
Le benchmark compétitif de reconnaissance des chiffres manuscrits MNIST a une longue histoire de records battus depuis 1998. L'avancement le plus récent par d'autres personnes remonte à 8 ans (taux d'erreur de 0,4 %). La bonne vieille rétropropagation en ligne pour les perceptrons multicouches simples donne un taux d'erreur très faible de 0,35 % sur le benchmark des chiffres manuscrits MNIST avec un seul MLP et de 0,31 % avec un comité de sept MLP. Tout ce dont nous avons besoin pour y parvenir jusqu'en 2011, ce sont de nombreuses couches cachées, de nombreux neurones par couche, de nombreuses images d'entraînement déformées pour éviter le surapprentissage, et des cartes graphiques pour accélérer considérablement l'apprentissage.
cbcd9f32b526397f88d18163875d04255e72137f
null
14829636fee5a1cf8dee9737849a8e2bdaf9a91f
Le bitcoin est une monnaie numérique distribuée qui a attiré un nombre important d'utilisateurs. Nous effectuons une enquête approfondie pour comprendre ce qui a fait le succès de Bitcoin, alors que des décennies de recherche sur la monnaie électronique cryptographique n'ont pas conduit à un déploiement à grande échelle. Nous nous demandons également comment le bitcoin pourrait devenir un bon candidat pour une monnaie stable à longue durée de vie. Ce faisant, nous identifions plusieurs problèmes et attaques du Bitcoin, et proposons des techniques appropriées pour y remédier.
3d16ed355757fc13b7c6d7d6d04e6e9c5c9c0b78
null
d19f938c790f0ffd8fa7fccc9fd7c40758a29f94
null
cd5b7d8fb4f8dc3872e773ec24460c9020da91ed
Cet article présente un nouveau concept de conception d'une antenne réseau phasée à gain élevé orientable par faisceau basée sur un guide d'ondes WR28 à une fréquence de 29 GHz pour un système FD-MIMO (Full Dimension Multiple Input Multiple Output) de cinquième génération (5G). Le réseau phasé planaire 8×8 est alimenté par un formateur de faisceaux tridimensionnel pour obtenir un balayage volumétrique du faisceau allant de -60 à +60 degrés à la fois dans la direction de l'azimut et de l'élévation. Le réseau de formation de faisceaux (BFN) est conçu à l'aide de 16 ensembles de formateurs de faisceaux à matrice Butler 8×8 pour obtenir 64 états de faisceau, qui contrôlent l'angle horizontal et vertical. Il s'agit d'un nouveau concept de formation de faisceaux tridimensionnelle haute puissance basée sur un guide d'ondes pour des faisceaux multifaisceaux volumétriques en bande Ka pour une application 5G. Le gain maximal d'un système multiélément est de 28,5 dBi et couvre la bande de fréquences de 28,9 GHz à 29,4 GHz.
34feeafb5ff7757b67cf5c46da0869ffb9655310
L'énergie environnementale est une source d'énergie attrayante pour les réseaux de capteurs sans fil à faible consommation. Nous présentons Prometheus, un système qui gère intelligemment le transfert d'énergie pour un fonctionnement perpétuel sans intervention humaine ni entretien. En combinant les attributs positifs de différents éléments de stockage d'énergie et en tirant parti de l'intelligence du microprocesseur, nous introduisons un système de transfert d'énergie efficace en plusieurs étapes qui réduit les limites courantes des systèmes de stockage d'énergie unique pour obtenir un fonctionnement presque perpétuel. Nous présentons nos choix de conception, nos compromis, nos évaluations de circuits, nos analyses de performance et nos modèles. Nous discutons des relations entre les composants du système et identifions les choix matériels optimaux pour répondre aux besoins d'une application. Enfin, nous présentons notre mise en œuvre d'un système réel qui utilise l'énergie solaire pour alimenter le Telos Mote de Berkeley. Notre analyse prévoit que le système fonctionnera pendant 43 ans sous une charge de 1 %, 4 ans sous une charge de 10 % et 1 an sous une charge de 100 %. Notre implémentation utilise un système de stockage à deux étages composé de supercondensateurs (tampon primaire) et d'une batterie rechargeable au lithium (tampon secondaire). Le mote a une connaissance complète des niveaux de puissance et gère intelligemment le transfert d'énergie pour maximiser la durée de vie.
3689220c58f89e9e19cc0df51c0a573884486708
AmbiMax est un circuit de récupération d'énergie et un système de stockage d'énergie basé sur des supercondensateurs pour les nœuds de capteurs sans fil (WSN). Les WSN précédents tentent de récolter de l'énergie à partir de diverses sources, et certains utilisent également des supercondensateurs au lieu de batteries pour résoudre le problème du vieillissement des batteries. Cependant, soit ils gaspillent beaucoup d'énergie disponible en raison d'une inadaptation d'impédance, soit ils nécessitent un contrôle numérique actif qui entraîne des frais généraux, soit ils ne fonctionnent qu'avec un seul type de source spécifique. AmbiMax résout ces problèmes en effectuant d'abord le suivi du point de puissance maximale (MPPT) de manière autonome, puis en chargeant les supercondensateurs à l'efficacité maximale. De plus, AmbiMax est modulaire et permet la composition de plusieurs sources de récupération d'énergie, notamment solaire, éolienne, thermique et vibratoire, chacune ayant une taille optimale différente. Les résultats expérimentaux sur une véritable plate-forme WSN, Eco, montrent qu'AmbiMax gère avec succès plusieurs sources d'énergie simultanément et de manière autonome, avec une efficacité plusieurs fois supérieure à l'état actuel de l'art pour les WSN
4833d690f7e0a4020ef48c1a537dbb5b8b9b04c6
Un tracker de point de puissance maximale (MPPT) à faible consommation, à faible coût et à haut rendement, à intégrer dans un panneau photovoltaïque (PV) est proposé. Cela peut entraîner une amélioration de 25 % de la consommation d'énergie par rapport à un panneau photovoltaïque standard, tout en exécutant des fonctions telles que la régulation de la tension de la batterie et l'adaptation du générateur photovoltaïque à la charge. Au lieu d'utiliser un MPPT connecté de l'extérieur, il est proposé d'utiliser un convertisseur MPPT intégré dans le panneau photovoltaïque. Il est proposé que ce MPPT intégré utilise un contrôleur simple afin d'être rentable. De plus, le convertisseur doit être très efficace, afin de transférer plus d'énergie à la charge qu'un système à couplage direct. Ceci est réalisé à l'aide d'une simple topologie à commutation douce. Il en résultera alors une efficacité de conversion beaucoup plus élevée à moindre coût, faisant du MPPT une solution abordable pour les petits systèmes d'énergie photovoltaïque.
61c1d66defb225eda47462d1bc393906772c9196
L'énorme potentiel des réseaux de capteurs sans fil à avoir un impact positif sur notre société a donné lieu à de nombreuses recherches sur le sujet, et ces recherches produisent maintenant des systèmes prêts à l'emploi. Les limites technologiques actuelles, associées à des exigences d'application très variées, conduisent à une diversité de plates-formes matérielles pour différentes parties de l'espace de conception. De plus, les contraintes uniques d'énergie et de fiabilité d'un système qui doit fonctionner pendant des mois sans intervention humaine signifient que les exigences imposées au matériel de réseau de capteurs sont différentes de celles imposées aux circuits intégrés standard. Cet article décrit nos expériences de conception de nœuds de capteurs et de logiciels de bas niveau pour les contrôler. Dans le système ZebraNet, nous utilisons la technologie GPS pour enregistrer des données de position précises afin de suivre les migrations d'animaux à long terme [14]. Le matériel ZebraNet est composé d'un microcontrôleur TI 16 bits, de 4 Mbits de mémoire flash hors puce, d'une radio 900 MHz et d'une puce GPS basse consommation. Dans cet article, nous discutons de nos techniques de conception d'alimentations efficaces pour les réseaux de capteurs, des méthodes de gestion de la consommation d'énergie des nœuds et des méthodes de gestion des périphériques tels que la radio, la mémoire flash et les capteurs. Nous concluons en évaluant la conception des nœuds ZebraNet et en discutant de la manière dont elle peut être améliorée. Les leçons que nous avons apprises lors du développement de ce matériel peuvent être utiles à la fois pour concevoir de futurs nœuds de capteurs et pour les utiliser dans des systèmes réels.
146da74cd886acbd4a593a55f0caacefa99714a6
L'évolution de l'intelligence artificielle a servi de catalyseur dans le domaine de la technologie. Nous pouvons maintenant développer des choses qui n'étaient autrefois qu'une imagination. L'une de ces créations est la naissance de la voiture autonome. Des jours sont venus où l'on peut faire son travail ou même dormir dans la voiture et sans même toucher le volant, l'accélérateur, vous pourrez toujours atteindre votre destination cible en toute sécurité. Cet article propose un modèle fonctionnel de voiture autonome, capable de se déplacer d'un endroit à l'autre ou par exemple sur différents types de pistes telles que les voies courbes, les voies droites et les lignes droites suivies de pistes courbes. Un module de caméra est monté sur le toit de la voiture avec Raspberry Pi qui envoie les images du monde réel au réseau neuronal convolutif qui prédit ensuite l'une des directions suivantes. c'est-à-dire droite, gauche, avant ou arrêt qui est ensuite suivi de l'envoi d'un signal de l'Arduino au contrôleur de la voiture télécommandée et à la suite de cela, la voiture se déplace dans la direction souhaitée sans aucune intervention humaine.
bb17e8858b0d3a5eba2bb91f45f4443d3e10b7cd
null
090a6772a1d69f07bfe7e89f99934294a0dac1b9
null
f07fd927971c40261dd7cef1ad6d2360b23fe294
Nous considérons le problème de l'analyse de corrélation canonique (ACC), c'est-à-dire la recherche de deux nations combinées linéaires, une pour chaque multivariée, qui produisent une corrélation maximale en utilisant un nombre spécifié de variables. Nous proposons une approximation numérique efficace basée sur une approche gourmande directe qui limite la corrélation à chaque étape. La méthode est spécifiquement conçue pour faire face à de grands ensembles de données et sa complexité de calcul ne dépend que des niveaux de rareté. Nous analysons la performance de l'algorithe m à travers le compromis entre corrélation et parcimonie. Les résultats de la simulation numérique suggèrent qu'une partie importante de la corrélation peut être capturée à l'aide d'un nombre relativement faible de variables. De plus, nous examinons l'utilisation de l'ACC épars comme méthode de régularisation lorsque le nombre d'échantillons disponibles est faible par rapport aux dimensions des multivariés. L'ANALYSE DE CORRÉLATION CANONIQUE (ACC), INTRODUITE PAR Harol d'Hotelling [1], est une technique standard en lyse de données multivariées permettant d'extraire des caractéristiques communes d'une paire de sources de données [2], [3]. Chacune de ces sources de données génère un vecto r aléatoire que l'on appelle un multivarié. Contrairement aux méthodes classiques de réduction dimensionnelle qui s'adressent à un multivarié, l'ACC prend en compte les relations statistiques entre les échantillons de deux espaces de dimensions et de structures éventuellement différentes. En particulier, il recherche deux combinaisons linéaires, une pour chaque multivariée, afin de maximiser leur corrélation. Il est utilisé dans différentes disciplines en tant qu'outil autonome ou en tant qu'étape de prétraitement pour d'autres méthodes statistiques. De plus, la CCA est un cadre généralisé qui comprend de nombreuses méthodes classiques en statistique, par exemple, l'analyse comparative principale (ACP), les moindres carrés partiels (PLS) et la régression linéaire multiple (MLR) [4]. L'ACC a récemment regagné l'attention avec l'avènement de l'ACC du noyau et son application à l'analyse en composantes indépendantes [5], [6]. La dernière décennie a vu un intérêt croissant pour la recherche de représentations éparses de signaux et de méthodes numériques clairsemées. Ainsi, nous considérons le problème de la CCA clairsemée, c'est-à-dire la recherche de combinaisons linéaires avec corrélation maximale en utilisant un petit nombre de variables. La quête de la parcimonie peut être motivée par divers raisonnements. Tout d'abord, la capacité d'interpréter et de visualiser les résultats. Un petit nombre de variables nous permet d'avoir une « vue d'ensemble », tout en sacrifiant certains petits détails. De plus, les représentations permettent l'utilisation d'une efficacité informatique. Les deux premiers auteurs ont contribué à parts égales à ce manuscrit. Ce travail a été soutenu en partie par un AFOSR MURI dans le cadre de la subvention FA9550-06-1-0 324. Méthodes numériques, techniques de compression, ainsi que les algorithmes de réduction NOIS E. La deuxième motivation de la rareté est la régularisation et la stabilité. L'une des principales vulnérabilités de l'ACC est sa sensibilité à un petit nombre d'observations. Il faut donc utiliser des méthodes régularisées telles que le ridge CCA [7]. Dans ce contexte, le CCA clairsemé est un schéma de sélection de sous-ensembles qui nous permet de réduire les dimensions des vecteurs et d'obtenir une solution stable. À notre connaissance, la première référence à l'ACC clairsemée est apparue dans [2] où la sélection de sous-ensembles à rebours et par étapes a été proposée. Cette discussion était de nature qualitative et aucun algorithme numérique spécifique n'a été proposé. Récemment, la demande croissante de traitement de données multidimensionnelles et la diminution des coûts de calcul ont fait remonter le sujet sur le devant de la scène [8]–[13]. Le principal inconvénient de ces solutions actuelles est qu'il n'y a pas de contrôle direct sur la parcimonie et qu'il est difficile (et non intuitif) de sélectionner leurs hyperparamètres optimaux. De plus, la complexité de calcul de la plupart de ces méthodes est trop élevée pour des applications pratiques avec des ensembles de données de grande dimension. L'ACP clairsemée a également été implicitement abordée dans [9], [14] et le d est intimement lié aux résultats récents sur l'ACP clairsemée [9], [15]–[17]. En effet, la solution que nous proposons est une extension des résultats de [17] à l'ACC. L'apport principal de ce travail est double. Tout d'abord, nous dérivons des algorithmes CCA avec un contrôle direct sur la rareté de chacun des multivariés et examinons leurs performances. Nos méthodes efficaces en matière de calcul visent spécifiquement à comprendre les relations entre deux ensembles de données de dimensions différentes. Nous adoptons une approche gourmande en avant (ou en arrière) qui est basée sur la sélection séquentielle (ou la suppression) de variables. À chaque étape, nous définissons la solution CCA optimale et contournons la nécessité de résoudre le problème dans son intégralité. De plus, la complexité de calcul de la méthode gourmande ne dépend pas des dimensions des données mais uniquement des paramètres de parcimonie. Les résultats de la simulation numérique montrent qu'une partie significative de la corrélation peut être efficacement capturée à l'aide d'un nombre relativement faible de coefficients non nuls. Notre deuxième contribution est l'étude de l'ACC clairsemé comme méthode de régularisation. À l'aide de simulations empiriques, nous examinons l'utilisation des différents algorithmes lorsque les dimensions des multivariés sont supérieures (ou du même ordre) au nombre d'échantillons et démontrons l'avantage de la CCA clairsemée. Dans ce contexte, l'un des avantages de l'approche gourmande est qu'elle génère le chemin de parcimonie complet en une seule fois et permet un réglage efficace des paramètres à l'aide de
49afbe880b8bd419605beb84d3382647bf8e50ea
null
19b7e0786d9e093fdd8c8751dac0c4eb0aea0b74
null
0b3cfbf79d50dae4a16584533227bb728e3522aa
Apprendre à stocker des informations sur de longs intervalles de temps par rétropropagation récurrente prend beaucoup de temps, principalement en raison d'un reflux d'erreur insuffisant et décroissant. Nous passons brièvement en revue l'analyse de Hochreiter (1991) de ce problème, puis nous l'abordons en introduisant une nouvelle méthode efficace basée sur le gradient appelée mémoire à long terme à court terme (LSTM). En tronquant le gradient là où cela ne fait pas de mal, LSTM peut apprendre à combler des décalages temporels minimaux supérieurs à 1000 pas de temps discrets en appliquant un flux d'erreur constant à travers des carrousels d'erreurs constantes au sein d'unités spéciales. Les unités de porte multiplicatives apprennent à ouvrir et à fermer l'accès au flux d'erreur constant. LSTM est local dans l'espace et le temps ; sa complexité de calcul par pas de temps et son poids sont de O. 1. Nos expériences avec des données artificielles impliquent des représentations de motifs locaux, distribués, à valeur réelle et bruyants. En comparaison avec l'apprentissage récurrent en temps réel, la rétropropagation dans le temps, la corrélation en cascade récurrente, les réseaux d'Elman et le découpage des séquences neuronales, le LSTM conduit à beaucoup plus d'exécutions réussies et apprend beaucoup plus rapidement. LSTM résout également des tâches complexes et artificielles à long terme qui n'ont jamais été résolues par les algorithmes de réseau récurrents précédents.
9eb67ca57fecc691853636507e2b852de3f56fac
Des études antérieures ont montré que des représentations sémantiquement significatives de mots et de texte peuvent être acquises à l'aide de modèles d'intégration neuronale. En particulier, les modèles vectoriels de paragraphe (PV) ont montré des performances impressionnantes dans certaines tâches de traitement du langage naturel en estimant un modèle de langage au niveau du document (sujet). Cependant, l'intégration des modèles PV avec les approches traditionnelles de recherche des modèles de langage produit des performances instables et des améliorations limitées. Dans cet article, nous discutons formellement de trois problèmes intrinsèques du modèle PV original qui limitent ses performances dans les tâches de récupération. Nous décrivons également les modifications apportées au modèle qui le rendent plus adapté à la tâche IR, et montrons leur impact à travers des expériences et des études de cas. Les trois problèmes que nous abordons sont les suivants : (1) le processus d'entraînement non réglementé de la PV est vulnérable au surajustement de documents courts qui produit un biais de longueur dans le modèle de récupération final ; (2) l'échantillonnage négatif de PV basé sur le corpus conduit à un système de pondération des mots qui supprime excessivement l'importance des mots fréquents ; et (3) le manque d'informations sur le contexte des mots rend PV incapable de capturer les relations de substitution de mots.
4df321947a2ac4365584a01d78a780913b171cf5
L'analyse des sentiments basée sur les aspects (ABSA) consiste à extraire et à résumer les opinions d'un texte sur des entités spécifiques et leurs aspects. Cet article décrit deux ensembles de données pour le développement et la mise à l'essai de systèmes ABSA pour le français, qui comprennent des avis d'utilisateurs annotés avec des entités, des aspects et des valeurs de polarité pertinents. Le premier ensemble de données contient 457 avis de restaurants (2365 phrases) pour la formation et le test des systèmes ABSA, tandis que le second contient 162 avis de musées (655 phrases) consacrés à l'évaluation hors domaine. Les deux ensembles de données ont été construits dans le cadre de la tâche 5 de SemEval-2016 « Analyse des sentiments basée sur l'aspect », où sept langues différentes ont été représentées, et sont accessibles au public à des fins de recherche. Cet article fournit des exemples et des statistiques par type d'annotation, résume les directives d'annotation et discute de leur applicabilité multilingue. Il explique également comment les données ont été utilisées pour l'évaluation dans la tâche SemEval ABSA et présente brièvement les résultats obtenus pour le français.
2445089d4277ccbec3727fecfe73eaa4cc57e414
Cet article évalue la qualité de traduction des systèmes de traduction automatique pour 8 paires de langues : traduction du français, de l'allemand, de l'espagnol et du tchèque vers l'anglais et inversement. Nous avons effectué une évaluation humaine approfondie qui nous a permis non seulement de classer les différents systèmes de TA, mais aussi d'effectuer une analyse de plus haut niveau du processus d'évaluation. Nous avons mesuré le moment et la concordance intra et inter-annotateur pour trois types d'évaluation subjective. Nous avons mesuré la corrélation entre les mesures d'évaluation automatique et les jugements humains. Cette méta-évaluation révèle des faits surprenants sur les méthodologies les plus couramment utilisées.
1965a7d9a3eb0727c054fb235b1758c8ffbb8e22
Une antenne patch à microruban à fente en U monocouche à polarisation circulaire a été proposée. La rainure en U asymétrique suggérée peut générer les deux modes orthogonaux pour la polarisation circulaire sans chanfreiner aucun coin de l'antenne à microbande carrée alimentée par la sonde. Une étude paramétrique a été réalisée pour étudier les effets causés par les différentes longueurs de bras de la rainure en U. L'épaisseur du substrat de mousse est d'environ 8,5 % de la longueur d'onde à la fréquence de fonctionnement. La largeur de bande axiale de 3 dB de l'antenne est de 4 %. Les résultats expérimentaux et théoriques de l'antenne ont été présentés et discutés. Polarisation circulaire, antennes imprimées, rainure en U.
9462cd1ec2e404b22f76c88b6149d1e84683acb7
Dans cette lettre, une antenne patch compacte à polarisation circulaire (CP) à large bande est proposée. Cette antenne patch se compose d'une sonde sinueuse imprimée (sonde M) et de patchs tronqués qui excitent des modes de résonance orthogonaux pour générer un fonctionnement CP à large bande. Le patch empilé est utilisé pour améliorer encore la bande passante à rapport axial (AR) afin de s'adapter à l'application Wi-Fi 5G. L'antenne proposée atteint une bande passante d'impédance de 42,3 % et une bande passante AR de 16,8 %, respectivement. Le gain moyen dans la bande passante AR est de 6,6 dBic avec une variation inférieure à 0,5 dB. Ce travail met en évidence une technique d'élargissement de la bande passante d'une antenne patch CP alimentée par une sonde M. Il s'agit de la première étude à étudier et à montrer que la sonde M pourrait également fournir les caractéristiques à large bande de l'antenne patch à charge diélectrique. Les applications potentielles de l'antenne sont la 5G, le Wi-Fi et les systèmes de communication par satellite.
d6002a6cc8b5fc2218754aed970aac91c8d8e7e9
Dans cet article, nous proposons une nouvelle méthode pour détecter plusieurs objets 3D spécifiques en temps réel. Nous partons de l'approche basée sur un modèle basée sur la représentation LINE2D/LINEMOD introduite récemment par Hinterstoisser et al., mais nous l'étendons de deux manières. Tout d'abord, nous proposons d'apprendre les modèles de manière discriminante. Nous montrons que cela peut être fait en ligne lors de la collecte des images d'exemple, en quelques millisecondes seulement, et a un impact important sur la précision du détecteur. Deuxièmement, nous proposons un schéma basé sur des cascades qui accélère la détection. Comme la détection d'un objet est rapide, de nouveaux objets peuvent être ajoutés à très faible coût, ce qui permet à notre approche de bien évoluer. Dans nos expériences, nous manipulons facilement 10 à 30 objets 3D à des fréquences d'images supérieures à 10 ips en utilisant un seul cœur de processeur. Nous surpassons l'état de l'art à la fois en termes de vitesse et de précision, comme le confirme 3 ensembles de données différents. Cela vaut à la fois pour l'utilisation d'images couleur monoculaires (avec LINE2D) et pour l'utilisation d'images RGBD (avec LINEMOD). De plus, nous proposons un nouvel ensemble de données stimulant composé de 12 objets, pour de futures méthodes concurrentes sur des images couleur monoculaires.
41d103f751d47f0c140d21c5baa4981b3d4c9a76
Les histoires personnelles que les gens écrivent dans leurs blogs sur Internet comprennent une quantité substantielle d'informations sur les relations causales entre les événements quotidiens. Dans cet article, nous décrivons nos efforts pour utiliser des millions de ces histoires pour un raisonnement causal automatisé de bon sens. En présentant le problème du raisonnement causal de bon sens comme un choix d'alternatives plausibles, nous décrivons quatre expériences qui comparent diverses approches statistiques et de recherche d'informations pour exploiter l'information causale dans des corpus d'histoires. Le système le plus performant de ces expériences utilise une simple statistique de cooccurrence entre les mots dans l'antécédent causal et le conséquent, calculée comme l'information mutuelle ponctuelle entre les mots d'un corpus de millions d'histoires personnelles.
c9d1bcdb95aa748940b85508fd7277622f74c0a4
La recherche de cas inspire le respect dans la discipline des systèmes d'information (SI) depuis au moins une décennie. Malgré la pertinence et la valeur potentielle des études de cas, cette approche méthodologique était autrefois considérée comme l'une des moins systématiques. Vers la fin des années 1980, la question de savoir si la recherche sur les cas de SI était menée avec rigueur a été soulevée pour la première fois. Des chercheurs de notre domaine (p. ex., Benbasat et al., 1987 ; Lee, 1989) et d'autres disciplines (p. ex., Eisenhardt, 1989 ; Yin, 1994) ont appelé à plus de rigueur dans la recherche de cas et, par leurs recommandations, ont contribué à l'avancement de la méthodologie des études de cas. Compte tenu de ces contributions, la présente étude cherche à déterminer dans quelle mesure le domaine des SI a progressé dans son utilisation opérationnelle de la méthode d'étude de cas. Plus précisément, il s'agit d'étudier le niveau de rigueur méthodologique dans les recherches de cas positivistes sur le SI menées au cours de la dernière décennie. Pour atteindre cet objectif, nous avons identifié et codé 183 articles de cas provenant de sept grandes revues de SI. Les attributs ou les critères d'évaluation examinés dans le présent examen sont axés sur trois domaines principaux, à savoir les problèmes de conception, la collecte de données et l'analyse des données. Bien que le niveau de rigueur méthodologique ait connu des progrès modestes en ce qui concerne certains attributs spécifiques, la rigueur globale évaluée est quelque peu équivoque et il y a encore des points à améliorer importants. L'une des clés est d'inclure une meilleure documentation, en particulier en ce qui concerne les questions liées à la collecte de données et à la
025cdba37d191dc73859c51503e91b0dcf466741
L'amélioration de l'image d'empreinte digitale est une étape de prétraitement essentielle dans les applications de reconnaissance d'empreintes digitales. Dans cet article, nous présentons une approche qui extrait simultanément l'orientation et la fréquence de la crête locale dans l'image de l'empreinte digitale par la banque de filtres à ondelettes de Gabor et les utilise dans le filtrage de l'image de Gabor. De plus, nous décrivons une approche robuste de l'amélioration de l'image d'empreintes digitales, qui est basée sur l'intégration des filtres Gabor et du filtre médian directionnel (DMF). En fait, les bruits distribués gaussiens sont réduits efficacement par les filtres Gabor et les bruits impulsionnels par le DMF. le DMF proposé peut non seulement terminer ses tâches initiales, mais il peut également joindre les crêtes d'empreintes digitales cassées, remplir les trous des images d'empreintes digitales, lisser les crêtes irrégulières ainsi que supprimer certains petits artefacts gênants entre les crêtes. Les résultats expérimentaux montrent que notre méthode est supérieure à celles décrites dans la littérature.
3dfce4601c3f413605399267b3314b90dc4b3362
« Aujourd'hui, la société en réseau mondial impose une grande exigence à la diffusion et au partage de l'information. Alors que par le passé, les informations publiées étaient principalement sous forme de tableaux et de statistiques, de nombreuses situations nécessitent aujourd'hui la publication de données spécifiques (microdonnées). Afin de protéger l'anonymat des entités (appelées répondants) auxquelles les informations se réfèrent, les détenteurs de données suppriment ou cryptent souvent des identifiants explicites tels que les noms, les adresses et les numéros de téléphone. La dépersonnalisation des données n'offre toutefois aucune garantie d'anonymat. Les informations publiées contiennent souvent d'autres données, telles que la race, la date de naissance, le sexe et le code postal, qui peuvent être liées à des informations accessibles au public pour réidentifier les répondants et déduire des informations qui n'étaient pas destinées à la divulgation. Dans cet article, nous abordons le problème de la diffusion de microdonnées tout en préservant l'anonymat des répondants auxquels les données se rapportent. L'approche est basée sur la définition de la k-anonymat. Une table fournit un k-anonymat si les tentatives de lier explicitement des informations d'identification à son contenu associent ces informations à au moins k entités. Nous illustrons comment le k-anonymat peut être fourni sans compromettre l'intégrité (ou la véracité) de l'information divulguée en utilisant des techniques de généralisation et de suppression. Nous introduisons le concept de généralisation minimale qui capture la propriété du processus de libération de ne pas déformer les données plus que nécessaire pour atteindre le k-anonymat, et présentons un algorithme pour le calcul d'une telle généralisation. Nous discutons également des politiques de préférence possibles pour choisir parmi différentes
cd866d4510e397dbc18156f8d840d7745943cc1a
null
74c24d7454a2408f766e4d9e507a0e9c3d80312f
Un schéma d'authentification utilisateur basé sur une carte à puce pour les réseaux de capteurs sans fil (en abrégé, un schéma SUA-WSN) est conçu pour restreindre l'accès aux données du capteur aux seuls utilisateurs qui possèdent à la fois une carte à puce et le mot de passe correspondant. Bien qu'un nombre important de schémas SUA-WSN aient été suggérés ces dernières années, leurs propriétés de sécurité prévues manquent de définitions et de preuves formelles dans un modèle largement accepté. L'une des conséquences est que les systèmes SUA-WSN non sécurisés contre diverses attaques ont proliféré. Dans cet article, nous concevons un modèle de sécurité pour l'analyse des schémas SUA-WSN en étendant le modèle largement accepté de Bellare, Pointcheval et Rogaway (2000). Notre modèle fournit des définitions formelles de l'échange de clés authentifiées et de l'anonymat de l'utilisateur tout en capturant les attaques par canal auxiliaire, ainsi que d'autres attaques courantes. Nous proposons également un nouveau schéma SUA-WSN basé sur la cryptographie à courbe elliptique (ECC), et prouvons ses propriétés de sécurité dans notre modèle étendu. À notre connaissance, le schéma que nous proposons est le premier schéma SUA-WSN qui permet à la fois l'échange de clés authentifiées et l'anonymat de l'utilisateur. Notre système est également compétitif sur le plan informatique par rapport à d'autres systèmes basés sur ECC (sécurité non prouvée).
3973e14770350ed54ba1272aa3e19b4d21f5dad3
Cet article décrit les algorithmes de détection et de suivi d'obstacles développés pour Boss, qui est l'entrée gagnante de l'Université Carnegie Mellon dans le DARPA Urban Challenge 2007. Nous décrivons le sous-système de suivi et montrons comment il fonctionne dans le contexte d'un système de perception plus large. Le sous-système de suivi donne au robot la capacité de comprendre des scénarios complexes de conduite urbaine pour opérer en toute sécurité à proximité d'autres véhicules. Le système de suivi fusionne les données de plus d'une douzaine de capteurs avec des informations supplémentaires sur l'environnement pour générer un modèle de situation cohérent. Une nouvelle approche multi-modèles est utilisée pour suivre les objets en fonction de la qualité des données du capteur. Enfin, l'architecture du sous-système de suivi fait explicitement abstraction de chacun des niveaux de traitement. Le sous-système peut facilement être étendu en ajoutant de nouveaux capteurs et algorithmes de validation.
6a694487451957937adddbd682d3851fabd45626
Les systèmes de réponse aux questions (QA) de pointe utilisent le classement par densité de termes pour récupérer les passages de réponse. De telles méthodes récupèrent souvent des passages incorrects car les relations entre les termes de la question ne sont pas prises en compte. Des études antérieures ont tenté de résoudre ce problème en faisant correspondre les relations de dépendance entre les questions et les réponses. Ils ont utilisé une correspondance stricte, qui échoue lorsque les relations sémantiquement équivalentes sont formulées différemment. Nous proposons un appariement de relations floues basé sur des modèles statistiques. Nous présentons deux méthodes d'apprentissage des scores de cartographie des relations à partir de paires d'assurance qualité passées : l'une basée sur l'information mutuelle et l'autre sur la maximisation des attentes. Les résultats expérimentaux montrent que notre méthode surpasse considérablement les méthodes de recherche de passage basées sur la densité de pointe jusqu'à 78 % en rang réciproque moyen. La correspondance des relations apporte également une amélioration de 50 % dans un système amélioré par l'expansion des requêtes.
2538e3eb24d26f31482c479d95d2e26c0e79b990
Nous proposons une architecture de réseau neuronal unifié et un algorithme d'apprentissage qui peut être appliqué à diverses tâches de traitement du langage naturel, notamment : le marquage de partie du discours, le segmentation, la reconnaissance d'entités nommées et l'étiquetage de rôles sémantiques. Cette polyvalence est obtenue en essayant d'éviter l'ingénierie spécifique à une tâche et donc en négligeant de nombreuses connaissances préalables. Au lieu d'exploiter des caractéristiques d'entrée créées par l'homme et soigneusement optimisées pour chaque tâche, notre système apprend des représentations internes sur la base de grandes quantités de données d'entraînement pour la plupart non étiquetées. Ce travail est ensuite utilisé comme base pour la construction d'un système de marquage disponible gratuitement avec de bonnes performances et des exigences de calcul minimales.
317deb87586baa4ee7c7b5dfc603ebed94d1da07
Nous proposons un nouvel algorithme purement discriminatif rapide pour l'analyse du langage naturel, basé sur un réseau de transformateurs de graphes convolutifs récurrents (GTN) « profonds ». En supposant une décomposition d'un arbre d'analyse en une pile de « niveaux », le réseau prédit un niveau de l'arbre en tenant compte des prédictions des niveaux précédents. En utilisant seulement quelques fonctionnalités de texte de base qui exploitent les représentations de mots de Collobert et Weston (2008), nous montrons des performances similaires (en score F1) aux analyseurs discriminants purs existants et aux analyseurs « de référence » existants (comme l'analyseur Collins, les grammaires probabilistes sans contexte basées sur les grammaires), avec un énorme avantage de vitesse.
04cc04457e09e17897f9256c86b45b92d70a401f
De nombreuses données telles que les réseaux sociaux, les préférences cinématographiques ou les bases de connaissances sont multirelationnelles, en ce sens qu'elles décrivent de multiples relations entre entités. Bien qu'il existe un grand nombre de travaux axés sur la modélisation de ces données, la modélisation conjointe de ces multiples types de relations reste un défi. De plus, les approches existantes ont tendance à s'effondrer lorsque le nombre de ces types augmente. Dans cet article, nous proposons une méthode de modélisation de grands ensembles de données multi-relationnels, avec éventuellement des milliers de relations. Notre modèle est basé sur une structure bilinéaire, qui capture différents ordres d'interaction des données, et partage également des facteurs latents clairsemés dans différentes relations. Nous illustrons la performance de notre approche sur des ensembles de données standard de factorisation tensorielle où nous atteignons ou surpassons des résultats de pointe. Enfin, une application NLP démontre notre évolutivité et la capacité de notre modèle à apprendre des représentations verbales efficaces et sémantiquement significatives.
052b1d8ce63b07fec3de9dbb583772d860b7c769
Nous décrivons une nouvelle procédure d'apprentissage, la rétropropagation, pour les réseaux d'unités de type neurone. La procédure ajuste à plusieurs reprises les poids des connexions dans le réseau afin de minimiser une mesure de la différence entre le vecteur de sortie réel du réseau et le vecteur de sortie souhaité. À la suite des ajustements de poids, les unités internes « cachées » qui ne font pas partie de l'entrée ou de la sortie en viennent à représenter des caractéristiques importantes du domaine de la tâche, et les régularités de la tâche sont capturées par les interactions de ces unités. La possibilité de créer de nouvelles fonctionnalités utiles distingue la rétropropagation des méthodes plus simples telles que la procédure de convergence perceptron1.
07f3f736d90125cb2b04e7408782af411c67dd5a
L'appariement sémantique est d'une importance centrale pour de nombreuses tâches de langage naturel [2, 28]. Un algorithme d'appariement réussi doit modéliser de manière adéquate les structures internes des objets de langage et l'interaction entre eux. Pour atteindre cet objectif, nous proposons des modèles de réseaux neuronaux convolutifs pour faire correspondre deux phrases, en adaptant la stratégie convolutive dans la vision et la parole. Les modèles proposés représentent non seulement bien les structures hiérarchiques des phrases avec leur composition et leur regroupement couche par couche, mais capturent également les riches modèles de correspondance à différents niveaux. Nos modèles sont plutôt génériques, ne nécessitant aucune connaissance préalable du langage, et peuvent donc être appliqués à des tâches d'appariement de différentes natures et dans différentes langues. L'étude empirique sur une variété de tâches d'appariement démontre l'efficacité du modèle proposé sur une variété de tâches d'appariement et sa supériorité par rapport aux modèles concurrents.
0af737eae02032e66e035dfed7f853ccb095d6f5
La modélisation d'une paire de phrases est un problème critique dans de nombreuses tâches NLP telles que la sélection de réponses (AS), l'identification de paraphrases (PI) et l'implication textuelle (TE). La plupart des travaux antérieurs (i) traitent d'une tâche individuelle en affinant un système spécifique ; (ii) modélise la représentation de chaque phrase séparément, en tenant rarement compte de l'impact de l'autre phrase ; ou (iii) s'appuie entièrement sur des caractéristiques linguistiques spécifiques à une tâche conçues manuellement. Ce travail présente un réseau de neurones convolutif basé sur l'attention (ABCNN) pour la modélisation d'une paire de phrases. Nous apportons trois contributions. (i) L'ABCNN peut être appliqué à une grande variété de tâches qui nécessitent la modélisation de paires de phrases. (ii) Nous proposons trois schémas d'attention qui intègrent l'influence mutuelle entre les phrases dans les CNN ; Ainsi, la représentation de chaque phrase prend en considération sa contrepartie. Ces représentations de paires de phrases interdépendantes sont plus puissantes que les représentations de phrases isolées. (iii) Les ABCNN atteignent des performances de pointe sur les tâches AS, PI et TE. Nous publions le code à l'adresse suivante : https://github.com/yinwenpeng/Answer_Selection.
1c059493904b2244d2280b8b4c0c7d3ca115be73
Les tâches de prédiction sur les nœuds et les arêtes des réseaux nécessitent un effort minutieux dans l'ingénierie des fonctionnalités utilisées par les algorithmes d'apprentissage. Des recherches récentes dans le domaine plus large de l'apprentissage de la représentation ont conduit à des progrès significatifs dans l'automatisation de la prédiction en apprenant les caractéristiques elles-mêmes. Cependant, les approches actuelles d'apprentissage des caractéristiques ne sont pas assez expressives pour saisir la diversité des modèles de connectivité observés dans les réseaux. Nous proposons ici node2vec, un cadre algorithmique pour l'apprentissage de représentations continues de caractéristiques pour les nœuds dans les réseaux. Dans node2vec, nous apprenons une correspondance des nœuds avec un espace de faible dimension de caractéristiques qui maximise la probabilité de préserver les voisinages de réseau des nœuds. Nous définissons une notion flexible du voisinage du réseau d'un nœud et concevons une procédure de marche aléatoire biaisée, qui explore efficacement divers quartiers. Notre algorithme généralise des travaux antérieurs basés sur des notions rigides de voisinages de réseau, et nous soutenons que la flexibilité supplémentaire dans l'exploration des quartiers est la clé de l'apprentissage de représentations plus riches. Nous démontrons l'efficacité de node2vec par rapport aux techniques de pointe existantes sur la classification multi-étiquettes et la prédiction de liens dans plusieurs réseaux du monde réel provenant de domaines divers. Dans l'ensemble, nos travaux représentent une nouvelle façon d'apprendre efficacement des représentations de pointe indépendantes des tâches dans des réseaux complexes.
de93c4f886bdf55bfc1bcaefad648d5996ed3302
Ce chapitre examine l'état de la détection d'intrusion moderne, en mettant l'accent sur l'approche émergente de l'exploration de données. La discussion met en parallèle deux aspects importants de la détection d'intrusion : la stratégie de détection générale (détection d'utilisation abusive par rapport à la détection d'anomalie) et la source de données (hôtes individuels par rapport à la transmission du réseau). La détection d'utilisation abusive tente de correspondre à des modèles d'intrusion connus, tandis que la détection d'anomalie recherche des écarts par rapport au comportement normal. Entre les deux approches, seule la détection d'anomalies a la capacité de détecter les attaques inconnues. Une approche particulièrement prometteuse de la détection d'anomalies combine l'exploration d'associations avec d'autres formes d'apprentissage automatique telles que la classification. De plus, la source de données utilisée par un système de détection d'intrusion a un impact significatif sur les types d'attaques qu'il peut détecter. Il y a un compromis dans le niveau d'informations détaillées disponibles verD. Barbará et al. (éd.), Applications de l'exploration de données en sécurité © informatique, Kluwer Academic Publishers, 2002 s
9e00005045a23f3f6b2c9fca094930f8ce42f9f6
null
2ec2f8cd6cf1a393acbc7881b8c81a78269cf5f7
Nous construisons des représentations de concepts multimodaux en concaténant un vecteur de représentation linguistique de skip-gram avec un vecteur de représentation de concept visuel calculé à l'aide des couches d'extraction de caractéristiques d'un réseau de neurones convolutifs profonds (CNN) entraînés sur un grand ensemble de données de reconnaissance d'objets étiquetés. Cette approche d'apprentissage par transfert apporte un net gain de performance par rapport aux fonctionnalités basées sur l'approche traditionnelle du sac de mots visuels. Les résultats expérimentaux sont rapportés sur les tâches d'évaluation de la relation sémantique WordSim353 et MEN. Nous utilisons des fonctionnalités visuelles calculées à l'aide d'images ImageNet ou ESP Game.
a65e815895bed510c0549957ce6baa129c909813
Nous proposons une approche non supervisée de l'apprentissage de la morphologie non concaténative, que nous appliquons pour induire un lexique de racines arabes et des modèles de motifs. L'approche est basée sur l'idée que les racines et les motifs peuvent être révélés par un scoring mutuellement récursif basé sur des motifs hypothétiques et des fréquences racinaires. Après une nouvelle étape de raffinement itératif, l'analyse morphologique avec le lexique induit permet d'atteindre une précision d'identification racinaire de plus de 94 %. Notre approche diffère des travaux précédents sur l'apprentissage non supervisé de la morphologie arabe en ce qu'elle est applicable à du texte écrit naturellement et sans voyelle.
3f4e71d715fce70c89e4503d747aad11fcac8a43
Cette étude de cas examine trois projets d'innovation numérique différents au sein d'Auto Inc, un grand constructeur automobile européen. En utilisant le cadre de valeurs concurrentes comme lentille théorique, nous explorons comment les capacités dynamiques se produisent dans une entreprise qui tente de répondre aux demandes croissantes en matière de numérisation et d'innovation. Dans ce processus de numérisation, notre étude indique que les congruences sociotechniques établies sont remises en question. Plus encore, nous soulignons la nécessité pour les organisations de trouver des moyens d'adopter de nouveaux processus d'apprentissage expérimentaux à l'ère de la numérisation. Bien qu'un tel changement nécessite un engagement et une vision à long terme, cette étude présente trois catalyseurs informels pour de tels processus expérimentaux : le timing, la persévérance et les contacts.
c22366074e3b243f2caaeb2f78a2c8d56072905e
Un réseau d'antennes à guide d'ondes à crête fendue longitudinalement avec une dimension transversale compacte est présenté. Pour élargir la bande passante du réseau, celui-ci est séparé en deux sous-réseaux alimentés par un nouveau diviseur de guide d'ondes convexe compact. Un réseau linéaire uniforme de 16 éléments en bande X a été fabriqué et mesuré pour vérifier la validité de la conception. La bande passante mesurée de S11les-15 dB est de 14,9 % et le niveau de polarisation croisée mesuré est inférieur à -36 dB sur toute la largeur de bande. Ce réseau peut être combiné avec le réseau de guides d'ondes à fentes de bord pour construire un réseau d'antennes bidimensionnelles à double polarisation pour l'application de radar à synthèse d'ouverture (SAR)
0d57ba12a6d958e178d83be4c84513f7e42b24e5
L'apprentissage profond prospère grâce à de grands réseaux neuronaux et à de grands ensembles de données. Cependant, des réseaux plus grands et des ensembles de données plus volumineux entraînent des temps de formation plus longs qui entravent les progrès de la recherche et du développement. Le SGD synchrone distribué offre une solution potentielle à ce problème en divisant les mini-lots SGD sur un pool de workers parallèles. Pourtant, pour que ce schéma soit efficace, la charge de travail par travailleur doit être importante, ce qui implique une croissance non négligeable de la taille du mini-lot SGD. Dans cet article, nous montrons empiriquement que sur l'ensemble de données ImageNet, de grands mini-lots posent des difficultés d'optimisation, mais lorsque ceux-ci sont adressés, les réseaux entraînés présentent une bonne généralisation. Plus précisément, nous ne montrons aucune perte de précision lors de l'entraînement avec de grandes tailles de mini-lots jusqu'à 8192 images. Pour obtenir ce résultat, nous adoptons une règle d'échelle linéaire pour ajuster les taux d'apprentissage en fonction de la taille des mini-lots et développons un nouveau schéma d'échauffement qui surmonte les défis d'optimisation dès le début de l'entraînement. Grâce à ces techniques simples, notre système basé sur Caffe2 entraîne ResNet50 avec une taille de mini-lot de 8192 sur 256 GPU en une heure, tout en s'adaptant à la précision des petits minilots. En utilisant du matériel de base, notre implémentation atteint une efficacité de mise à l'échelle de ∼90 % lors du passage de 8 à 256 GPU. Ce système nous permet d'entraîner des modèles de reconnaissance visuelle sur des données à l'échelle d'Internet avec une grande efficacité.
2bbe9735b81e0978125dad005656503fca567902
Les rootkits du noyau sont des menaces redoutables pour les systèmes informatiques. Ils sont furtifs et peuvent avoir un accès illimité aux ressources système. Ce document présente NumChecker, un nouveau framework basé sur un moniteur de machine virtuelle (VM) pour détecter et identifier les rootkits de noyau modifiant le flux de contrôle dans une VM invitée. NumChecker détecte et identifie les modifications malveillantes apportées à un appel système dans la machine virtuelle invitée en mesurant le nombre de certains événements matériels qui se produisent pendant l'exécution de l'appel système. Pour comptabiliser automatiquement ces événements, NumChecker exploite les compteurs de performance matérielle (HPC), qui existent dans les processeurs modernes. L'utilisation de HPC permet de réduire considérablement les coûts de vérification et d'améliorer la résistance à l'effraction. Nous implémentons un prototype de NumChecker sur Linux avec la VM basée sur le noyau. Une technique de détection et d'identification de rootkits de noyau en deux phases basée sur HPC est présentée et évaluée sur un certain nombre de rootkits de noyau du monde réel. Les résultats démontrent sa praticité et son efficacité.
a3d638ab304d3ef3862d37987c3a258a24339e05
CycleGAN [Zhu et al., 2017] est une approche récente réussie pour apprendre une transformation entre deux distributions d'images. Dans une série d'expériences, nous démontrons une propriété intrigante du modèle : CycleGAN apprend à « cacher » des informations sur une image source dans les images qu'elle génère dans un signal haute fréquence presque imperceptible. Cette astuce permet au générateur de récupérer l'échantillon d'origine et donc de satisfaire à l'exigence de cohérence cyclique, tout en conservant le réalisme de l'image générée. Nous associons ce phénomène aux attaques adverses en considérant la procédure d'entraînement de CycleGAN comme un générateur d'exemples adverses et démontrons que la perte de cohérence cyclique rend CycleGAN particulièrement vulnérable aux attaques adverses.
c171faac12e0cf24e615a902e584a3444fcd8857
null
5a14949bcc06c0ae9eecd29b381ffce22e1e75b2
Les articles de ce numéro de DATA BASE ont été choisis par Anthony G. Hopwood, qui est professeur de comptabilité et d'information financière à la London Graduate School of Business Studies. Les articles contiennent des idées importantes, a écrit le professeur Hopwood, d'importance pour tous ceux qui s'intéressent aux systèmes d'information, qu'ils soient praticiens ou universitaires. Les auteurs, avec leurs affiliations professionnelles à l'époque, étaient Chris Argyris, Graduate School of Education, Université Harvard ; Bo Hedberg et Sten Jonsson, Département d'administration des affaires, Université de Göteborg ; J . Frisco den Hertog, N . V. Gloeilampenfabrieken de Philips, Pays-Bas, et Michael J. Earl, Centre d'études de gestion d'Oxford . Les articles ont été publiés à l'origine dans Accounting, Organizations and Society, une publication dont le professeur Hopwood est le rédacteur en chef. L'AOS existe pour suivre les développements émergents et pour encourager activement de nouvelles approches et perspectives.
02227c94dd41fe0b439e050d377b0beb5d427cda
La détection et la lecture de texte à partir d'images naturelles est une tâche difficile de vision par ordinateur qui est au cœur d'une variété d'applications émergentes. Des problèmes connexes tels que la reconnaissance de caractères de documents ont été largement étudiés par les chercheurs en vision par ordinateur et en apprentissage automatique et sont pratiquement résolus pour des applications pratiques telles que la lecture de chiffres écrits à la main. Cependant, il est beaucoup plus difficile de reconnaître de manière fiable les personnages dans des scènes plus complexes comme les photographies : les meilleures méthodes existantes sont bien en retard sur les performances humaines dans les mêmes tâches. Dans cet article, nous abordons le problème de la reconnaissance des chiffres dans une application réelle en utilisant des méthodes d'apprentissage de caractéristiques non supervisées : la lecture des numéros de maison à partir de photos au niveau de la rue. À cette fin, nous lançons un nouvel ensemble de données de référence à des fins de recherche contenant plus de 600 000 chiffres étiquetés recadrés à partir d'images Street View. Nous démontrons ensuite la difficulté de reconnaître ces chiffres lorsque le problème est abordé avec des caractéristiques conçues à la main. Enfin, nous employons des variantes de deux méthodes d'apprentissage de caractéristiques non supervisées récemment proposées et constatons qu'elles sont convaincantes sur nos benchmarks.
081651b38ff7533550a3adfc1c00da333a8fe86c
De nombreux réseaux de neurones profonds entraînés sur des images naturelles présentent un curieux phénomène en commun : sur la première couche, ils apprennent des caractéristiques similaires aux filtres de Gabor et aux taches de couleur. Ces caractéristiques de première couche ne semblent pas être spécifiques à un ensemble de données ou à une tâche particulière, mais générales en ce sens qu'elles sont applicables à de nombreux ensembles de données et tâches. Les caractéristiques doivent finalement passer du général au spécifique par la dernière couche du réseau, mais cette transition n'a pas été étudiée de manière approfondie. Dans cet article, nous quantifions expérimentalement la généralité par rapport à la spécificité des neurones dans chaque couche d'un réseau de neurones convolutifs profonds et rapportons quelques résultats surprenants. La transférabilité est affectée négativement par deux problèmes distincts : (1) la spécialisation des neurones de la couche supérieure à leur tâche d'origine au détriment de la performance sur la tâche cible, ce qui était attendu, et (2) les difficultés d'optimisation liées à la division des réseaux entre neurones co-adaptés, ce qui n'était pas prévu. Dans un exemple de réseau entraîné sur ImageNet, nous démontrons que l'un ou l'autre de ces deux problèmes peut dominer, selon que les entités sont transférées du bas, du milieu ou du haut du réseau. Nous documentons également que la transférabilité des fonctionnalités diminue à mesure que la distance entre la tâche de base et la tâche cible augmente, mais que le transfert de fonctionnalités même à partir de tâches distantes peut être meilleur que l'utilisation de fonctionnalités aléatoires. Un dernier résultat surprenant est que l'initialisation d'un réseau avec des caractéristiques transférées à partir de presque n'importe quel nombre de couches peut produire une impulsion à la généralisation qui persiste même après avoir été ajustée à l'ensemble de données cible.
6c8d5d5eee5967958a2e03a84bcc00f1f81f4d9e
Le séquençage à haut débit a théoriquement permis d'obtenir des séquences génomiques assemblées de novo de haute qualité, mais en pratique, les extraits d'ADN sont souvent contaminés par des séquences d'autres organismes. Actuellement, il existe peu de méthodes pour décontaminer rigoureusement les assemblages eucaryotes. Celles qui existent filtrent les séquences en fonction de la similitude des nucléotides avec les contaminants et risquent d'éliminer les séquences de l'organisme cible. Nous introduisons une nouvelle application d'une méthode d'apprentissage automatique établie, un arbre de décision, qui permet de classer rigoureusement les séquences. La principale force de l'arbre de décision est qu'il peut prendre n'importe quelle caractéristique mesurée en entrée et ne nécessite pas l'identification a priori de descripteurs significatifs. Nous utilisons l'arbre de décision pour classer les séquences assemblées de novo et comparer la méthode aux protocoles publiés. Un arbre de décision fonctionne mieux que les méthodes existantes lors de la classification des séquences dans les assemblages eucaryotes de novo. Il est efficace, facile à mettre en œuvre et identifie avec précision les séquences cibles et contaminantes. Il est important de noter qu'un arbre de décision peut être utilisé pour classer des séquences en fonction de descripteurs mesurés et qu'il a potentiellement de nombreuses utilisations dans la distillation d'ensembles de données biologiques.
26433d86b9c215b5a6871c70197ff4081d63054a
La biométrie multimodale a récemment suscité un intérêt considérable pour ses hautes performances en matière de système de reconnaissance biométrique. Dans cet article, nous présentons la biométrie multimodale pour les images de visage et d'empreinte palmaire en utilisant des techniques de fusion au niveau des caractéristiques. Le traitement d'image basé sur Gabor est utilisé pour extraire des caractéristiques discriminantes, tandis que l'analyse en composantes principales (PCA) et l'analyse discriminante linéaire (LDA) sont utilisées pour réduire la dimension de chaque modalité. Les caractéristiques de sortie de LDA sont combinées en série et classées par un classificateur de distance euclidien. Les résultats expérimentaux basés sur les bases de données ORL face et Poly-U palmprint ont prouvé que cette technique de fusion est capable d'augmenter les taux de reconnaissance biométrique par rapport à ceux produits par la biométrie monomodale.
1c01e44df70d6fde616de1ef90e485b23a3ea549
Nous introduisons une nouvelle classe de bornes supérieures sur la fonction de partition logarithmique d'un champ aléatoire de Markov (MRF). Cette quantité joue un rôle important dans divers contextes, notamment l'approximation des distributions marginales, l'estimation des paramètres, l'énumération combinatoire, la théorie de la décision statistique et les limites des grands écarts. Notre dérivation est basée sur des concepts de dualité convexe et de géométrie de l'information : en particulier, elle exploite des mélanges de distributions dans le domaine exponentiel, et la cartographie de Legendre entre paramètres exponentiels et moyens. Dans le cas particulier des combinaisons convexes de distributions arborescentes, nous obtenons une famille de problèmes variationnels, similaire au problème variationnel de Bethe, mais distingué par les propriétés souhaitables suivantes : i) ils sont convexes et ont un optimum global unique ; et ii) l'optimum donne une borne supérieure à la fonction de partition logarithmique. Cet optimum est défini par des conditions stationnaires très similaires à celles définissant les points fixes de l'algorithme somme-produit, ou plus généralement, à tout optimum local du problème variationnel de Bethe. Comme pour les points fixes somme-produit, les éléments de l'argument d'optimisation peuvent être utilisés comme approximations des marges du modèle original. L'analyse s'étend naturellement aux combinaisons convexes de distributions structurées en hyperarbre, établissant ainsi des liens avec les approximations et les variantes de Kikuchi.
39a6cc80b1590bcb2927a9d4c6c8f22d7480fbdd
Dans cet article, nous présentons un descripteur SIFT tridimensionnel (3D) pour les images vidéo ou 3D telles que les données IRM. Nous montrons également comment ce nouveau descripteur est capable de mieux représenter la nature 3D des données vidéo dans l'application de la reconnaissance d'actions. Cet article montrera comment 3D SIFT est capable de surpasser les méthodes de description précédemment utilisées de manière élégante et efficace. Nous utilisons une approche de sac de mots pour représenter les vidéos, et présentons une méthode pour découvrir les relations entre les mots spatio-temporels afin de mieux décrire les données vidéo.
0a10d64beb0931efdc24a28edaa91d539194b2e2
Nous proposons deux architectures de modèles novatrices pour le calcul de représentations vectorielles continues de mots à partir de très grands ensembles de données. La qualité de ces représentations est mesurée dans une tâche de similarité de mots, et les résultats sont comparés aux techniques précédemment les plus performantes basées sur différents types de réseaux neuronaux. Nous observons de grandes améliorations de la précision à un coût de calcul beaucoup plus faible, c'est-à-dire qu'il faut moins d'une journée pour apprendre des vecteurs de mots de haute qualité à partir d'un ensemble de données de 1,6 milliard de mots. De plus, nous montrons que ces vecteurs offrent des performances de pointe sur notre ensemble de test pour mesurer les similitudes syntaxiques et sémantiques des mots.
b07bfdebdf11b7ab3ea3d5f0087891c464c5e34d
Un réseau phasé actif de 64 éléments 29-30 GHz pour les applications à ondes millimétriques 5G est présenté dans cet article. Les composites à réseau phasé proposés sont des antennes à 64 éléments, des modules T/R à 64 canaux, des liaisons de conversion de fréquence à 4 canaux, des circuits de contrôle de faisceau, des circuits de gestion de l'alimentation et des ventilateurs de refroidissement, et sont intégrés dans une taille très compacte (135 mm X 77 mm X 56 mm). L'intégration hybride des circuits GaAs et Si est utilisée pour obtenir de meilleures performances RF. L'architecture du réseau phasé proposé et la conception détaillée des modules T/R et des antennes sont analysées. Par la mesure OTA (over the air), le réseau phasé proposé atteint une bande passante de 1 GHz à la fréquence centrale de 29,5 GHz, et la largeur du faisceau azimutal est de 12 degrés avec une plage de balayage de ±45 degrés. Avec l'excitation de signaux 64QAM de 800 MHz, le faisceau de l'émetteur atteint un EVM de 5,5 %, un ACLR de -30,5 dBc avec le PA fonctionnant à -10 dB en retrait, et l'EREP saturé mesuré est de 63 dBm.
5f507abd8d07d3bee56820fd3a5dc2234d1c38ee
null
6424b69f3ff4d35249c0bb7ef912fbc2c86f4ff4
Il est difficile de prédire les attributs des visages dans la nature en raison des variations complexes des visages. Nous proposons un nouveau cadre d'apprentissage profond pour la prédiction d'attributs dans la nature. Il met en cascade deux CNN, LNet et ANet, qui sont affinés conjointement avec des balises d'attribut, mais pré-entraînés différemment. LNet est pré-entraîné par des catégories d'objets générales massives pour la localisation des visages, tandis qu'ANet est pré-entraîné par des identités faciales massives pour la prédiction d'attributs. Ce cadre surpasse non seulement l'état de l'art avec une large marge, mais révèle également des faits précieux sur l'apprentissage de la représentation faciale. (1) Il montre comment les performances de la localisation faciale (LNet) et de la prédiction d'attributs (ANet) peuvent être améliorées par différentes stratégies de pré-entraînement. (2) Il révèle que, bien que les filtres de LNet ne soient affinés qu'avec des balises d'attribut au niveau de l'image, leurs cartes de réponse sur des images entières ont une forte indication de l'emplacement des visages. Ce fait permet d'entraîner LNet pour la localisation des visages avec uniquement des annotations au niveau de l'image, mais sans cadres englobants ou points de repère de visage, qui sont requis par tous les travaux de reconnaissance d'attributs. (3) Il démontre également que les neurones cachés de haut niveau d'ANet découvrent automatiquement les concepts sémantiques après le pré-entraînement avec des identités faciales massives, et que ces concepts sont considérablement enrichis après un réglage fin avec des balises d'attribut. Chaque attribut peut être bien expliqué avec une combinaison linéaire clairsemée de ces concepts.
d2938415204bb6f99a069152cb954e4baa441bba
Cette lettre présente une antenne compacte adaptée à la réception de signaux GPS sur des projectiles d'artillerie supérieurs à 1,57-1,60 GHz. Quatre éléments inversés de type F sont excités par un réseau d'alimentation en série d'amplitude égale et de différence de phase successive de 90°. La forme et le facteur de forme de l'antenne sont adaptés de manière à ce que l'antenne puisse être facilement installée à l'intérieur d'une fusée d'artillerie. Les mesures montrent que l'antenne proposée a un gain de 2,90 à 3,77 dBic, un rapport axial de 1,9 à 2,86 dB et un coefficient de réflexion inférieur à -10 dB sur 1,57 à 1,62 GHz.
0e52fbadb7af607b4135189e722e550a0bd6e7cc
CONTEXTESLe découpage à l'aide d'une lame de rasoir est un type de comportement d'automutilation qui laisse des cicatrices permanentes et socialement inacceptables avec des motifs uniques, en particulier sur les membres supérieurs et la paroi antérieure du thorax. Ces cicatrices sont facilement reconnaissables dans la communauté et deviennent une source de culpabilité, de honte et de regret à vie pour les automutilateurs. Dans l'étude clinique présentée, nous avons cherché à étudier l'efficacité du resurfaçage au laser de dioxyde de carbone et de la greffe de peau fine pour camoufler les cicatrices d'incision auto-infligées par une lame de rasoir. MÉTHODESA un total de 26 sites anatomiques (11 bras supérieurs, 11 avant-bras et quatre antérieurs thoraciques) de 16 patients masculins blancs, âgés de 20 à 41 ans (moyenne de 23,8 ans), ont été traités entre février 2001 et août 2003. Évaluation psychiatrique détaillée préopératoire ; informer le patient qu'il s'agit d'une opération de « camouflage » ; réduire les cicatrices hypertrophiques jusqu'au niveau de la peau intacte ; injection intralésionnelle de corticostéroïdes dans les cicatrices hypertrophiques ; resurfaçage au laser à dioxyde de carbone en une seule unité ; greffe de peau mince (0,2 à 0,3 mm) ; pansement compressif pendant 15 jours ; utilisation d'un bandage tubulaire ; et une protection contre la lumière du soleil pendant au moins 6 mois ont constitué les points clés de la procédure. RÉSULTATSLes cicatrices ont été camouflées avec succès et converties en une apparence socialement acceptable semblable à une cicatrice de brûlure. La perte partielle du greffon dans un cas et l'hyperpigmentation dans un autre cas étaient les complications. Aucune nouvelle cicatrice hypertrophique ne s'est développée. CONCLUSIONSLa méthode de resurfaçage au laser au dioxyde de carbone et de greffe de peau mince est efficace pour camoufler les cicatrices d'incision auto-infligées par une lame de rasoir.
2b0750d16db1ecf66a3c753264f207c2cb480bde
Nous disposons d'une grande base de données de transactions client, où chaque transaction se compose de l'identifiant du client, de l'heure de la transaction et des articles achetés dans la transaction. Nous introduisons le problème de l'exploitation minière de motifs séquentiels sur de telles bases de données. Nous présentons trois algorithmes pour résoudre ce problème, et évaluons empiriquement leurs performances à l'aide de données synthétiques. Deux des algorithmes proposés, AprioriSome et AprioriAll, ont des performances comparables, bien qu'AprioriSome soit un peu plus performant lorsque le nombre minimum de clients qui doivent prendre en charge un modèle séquentiel est faible. Les expériences de mise à l'échelle montrent qu'AprioriSome et AprioriAll évoluent linéairement avec le nombre de transactions des clients. Ils ont également d'excellentes propriétés d'évolutivité en ce qui concerne le nombre de transactions par client et le nombre d'articles dans une transaction.
3f4558f0526a7491e2597941f99c14fea536288d
null
f6c265af493c74cb7ef64b8ffe238e3f2487d133
Dans cet article de recherche, une antenne imprimée compacte asymétrique coplanaire à bande double bande est conçue et présentée pour les applications Bluetooth, WLAN/WiMAX et de sécurité publique. Les bandes de fonctionnement à double fréquence (2,45 GHz et 5,25 GHz) ont été obtenues en fixant deux simples bandes rayonnantes en forme de méandre à la ligne d'alimentation ACS. La géométrie d'antenne proposée est imprimée sur un substrat FR4 à faible coût d'une épaisseur de 1,6 mm avec des dimensions totales de 13 × 21,3 m, y compris le plan de masse uniplanaire. La bande passante d'impédance de -10 dB de l'antenne monopole bibande à méandres alimentée par ACS est d'environ 140 MHz de 2,36 à 2,5 GHz et de 2500 MHz de 4,5 à 7,0 GHz respectivement, ce qui peut couvrir les bandes de sécurité publique Bluetooth/WLAN 2,4 GHz, WLAN 5,2/5,8 GHz, WiMAX 5,5 GHz et 4,9 GHz pour la sécurité publique américaine. En plus de la géométrie simple et de la large bande passante d'impédance, la structure proposée effectue un diagramme de rayonnement bidirectionnel et omnidirectionnel dans les plans E et H respectivement.
04f39720b9b20f8ab990228ae3fe4f473e750fe3
null
17fac85921a6538161b30665f55991f7c7e0f940
Nous poursuivons une ligne de recherche initiée en [10, 11] sur les bases de données statistiques préservant la vie privée. Prenons l'exemple d'un serveur de confiance qui contient une base de données d'informations sensibles. Étant donné une fonction de requête f mappage des bases de données à des réels, la réponse dite vraie est le résultat de l'application de f à la base de données. Pour protéger la vie privée, la vraie réponse est perturbée par l'ajout de bruit aléatoire généré selon une distribution soigneusement choisie, et cette réponse, la vraie réponse plus le bruit, est renvoyée à l'utilisateur. Des travaux antérieurs se sont concentrés sur le cas des sommes bruitées, dans lesquelles f = P i g(xi), où xi désigne la ième ligne de la base de données et g mappe les lignes de la base de données à [0, 1]. Nous étendons l'étude aux fonctions générales f , prouvant que la confidentialité peut être préservée en calibrant l'écart-type du bruit en fonction de la sensibilité de la fonction f . En gros, il s'agit de la quantité qu'un seul argument de f peut modifier sa sortie. La nouvelle analyse montre que pour plusieurs applications particulières, il faut beaucoup moins de bruit que ce que l'on pensait auparavant. La première étape consiste à caractériser très clairement la vie privée en termes d'indiscernabilité des transcriptions. De plus, nous obtenons des résultats de séparation montrant la valeur accrue des mécanismes de désinfection interactifs par rapport aux mécanismes non interactifs.
2a622720d4021259a6f6d3c6298559d1b56e7e62
Les techniques de recherche récentes sur le Web augmentent la correspondance de texte traditionnelle avec une notion globale d'« importance » basée sur la structure de liaison du Web, comme dans l'algorithme PageRank de Google. Pour des recherches plus fines, cette notion globale d'importance peut être spécialisée pour créer des vues personnalisées de l'importance - par exemple, les scores d'importance peuvent être biaisés en fonction d'un ensemble de pages initialement intéressantes spécifiées par l'utilisateur. Il n'est pas pratique de calculer et de stocker à l'avance toutes les vues personnalisées possibles, tout comme le calcul des vues personnalisées au moment de la requête, car le calcul de chaque vue nécessite un calcul itératif sur le graphe Web. Nous présentons de nouveaux résultats de la théorie des graphes, et une nouvelle technique basée sur ces résultats, qui encode des vues personnalisées comme des vecteurs partiels. Les vecteurs partiels sont partagés entre plusieurs vues personnalisées, et leurs coûts de calcul et de stockage s'adaptent bien au nombre de vues. Notre approche permet le calcul incrémental, de sorte que la construction de vues personnalisées à partir de vecteurs partiels est pratique au moment de la requête. Nous présentons des algorithmes de programmation dynamique efficaces pour le calcul de vecteurs partiels, un algorithme pour construire des vues personnalisées à partir de vecteurs partiels, et des résultats expérimentaux démontrant l'efficacité et l'évolutivité de nos techniques.
37c3303d173c055592ef923235837e1cbc6bd986
Nous proposons un algorithme d'apprentissage pour la classification équitable qui atteint à la fois l'équité de groupe (la proportion de membres d'un groupe protégé recevant une classification positive est identique à la proportion dans l'ensemble de la population) et l'équité individuelle (des individus similaires doivent être traités de la même manière). Nous formulons l'équité comme un problème d'optimisation consistant à trouver une bonne représentation des données avec deux objectifs concurrents : encoder les données aussi bien que possible, tout en obscurcissant simultanément toute information sur l'appartenance au groupe protégé. Nous montrons des résultats positifs de notre algorithme par rapport à d'autres techniques connues, sur trois jeux de données. De plus, nous démontrons plusieurs avantages à notre approche. Premièrement, notre représentation intermédiaire peut être utilisée pour d'autres tâches de classification (c'est-à-dire que l'apprentissage par transfert est possible) ; Deuxièmement, nous faisons un pas vers l'apprentissage d'une métrique de distance qui peut trouver des dimensions importantes des données pour la classification.
4556f3f9463166aa3e27b2bec798c0ca7316bd65
Dans cet article, nous étudions comment modifier le classificateur bayésien naïf afin d'effectuer une classification qui est limitée à être indépendante par rapport à un attribut sensible donné. De telles restrictions d'indépendance se produisent naturellement lorsque le processus de décision menant aux étiquettes dans l'ensemble de données était biaisé ; par exemple, en raison de la discrimination sexuelle ou raciale. Ce contexte est motivé par de nombreux cas où il existe des lois qui interdisent une décision fondée en partie sur la discrimination. L'application naïve des techniques d'apprentissage automatique entraînerait d'énormes amendes pour les entreprises. Nous présentons trois approches pour rendre le classificateur bayésien naïf sans discrimination : (i) modifier la probabilité que la décision soit positive, (ii) entraîner un modèle pour chaque valeur d'attribut sensible et les équilibrer, et (iii) ajouter une variable latente au modèle bayésien qui représente l'étiquette non biaisée et optimiser les paramètres du modèle pour la vraisemblance en utilisant la maximisation des attentes. Nous présentons des expériences pour les trois approches sur des données artificielles et réelles.
f5de0751d6d73f0496ac5842cc6ca84b2d0c2063
Les progrès récents de la microélectronique et des circuits intégrés, de la conception de systèmes sur puce, de la communication sans fil et des capteurs intelligents à faible consommation ont permis la réalisation d'un réseau corporel sans fil (WBAN). Un WBAN est un ensemble de nœuds de capteurs sans fil légers de faible puissance, miniaturisés, invasifs/non invasifs qui surveillent les fonctions du corps humain et l'environnement environnant. De plus, il prend en charge un certain nombre d'applications innovantes et intéressantes telles que les soins de santé omniprésents, le divertissement, les jeux interactifs et les applications militaires. Dans cet article, nous passons en revue les mécanismes fondamentaux de WBAN, notamment l'architecture et la topologie, la communication implantaire sans fil, le contrôle d'accès au support (MAC) à faible consommation d'énergie et les protocoles de routage. Une étude complète des technologies proposées pour WBAN aux couches physiques (PHY), MAC et réseau est présentée et de nombreuses solutions utiles sont discutées pour chaque couche. Enfin, de nombreuses applications WBAN sont mises en évidence.
bebdd553058ab50d0cb19a1f65d7f4daeb7cda37
La protection des technologies de l'information (TI) est devenue et devrait rester un défi économique majeur pour les organisations. Alors que la recherche sur l'investissement en sécurité informatique connaît un essor rapide, elle manque d'une base théorique pour structurer la recherche, expliquer les phénomènes économiques et technologiques et orienter les recherches futures. Nous comblons cette lacune en proposant un nouveau modèle théorique émergeant d'une perspective multi-théorique adoptant la vision basée sur les ressources et la théorie de l'apprentissage organisationnel. L'application conjointe de ces théories permet de conceptualiser dans un seul modèle théorique les effets d'apprentissage organisationnel qui se produisent lorsque la protection des ressources organisationnelles par des contre-mesures de sécurité informatique se développe au fil du temps. Nous utilisons ce modèle d'investissements en sécurité informatique pour synthétiser les résultats d'un grand nombre de publications et pour déduire les lacunes de la recherche. Nous discutons également des implications managériales de la (réduction) de ces écarts en fournissant des exemples pratiques.
1407b3363d9bd817b00e95190a95372d3cb3694a
Dans le discours en langage naturel, les événements connexes ont tendance à apparaître les uns à côté des autres pour décrire un scénario plus large. De telles structures peuvent être formalisées par la notion de cadre (alias modèle), qui comprend un ensemble d'événements liés et de participants et de transitions d'événements prototypiques. L'identification des cadres est une condition préalable à l'extraction d'informations et à la génération du langage naturel, et se fait généralement manuellement. Des méthodes d'induction de cadres ont été proposées récemment, mais elles utilisent généralement des procédures ad hoc et sont difficiles à diagnostiquer ou à étendre. Dans cet article, nous proposons la première approche probabiliste de l'induction de cadres, qui intègre des cadres, des événements, des participants comme sujets latents et apprend les transitions de cadres et d'événements qui expliquent le mieux le texte. Le nombre d'images est déduit par une nouvelle application d'une méthode de fractionnement-fusion à partir de l'analyse syntaxique. Dans les évaluations de bout en bout, du texte aux cadres induits et aux faits extraits, notre méthode a produit des résultats de pointe tout en réduisant considérablement les efforts d'ingénierie.
1bf9a76c9d9838afc51983894b58790b14c2e3d3
L'aide à la vie autonome (AAL) fournit des solutions informatiques qui visent à faciliter et à améliorer la vie des personnes handicapées, âgées et atteintes de maladies chroniques. La mobilité est un enjeu clé pour les personnes âgées car leur activité physique, en général, améliore leur qualité de vie et leur état de santé. Ensuite, cet article présente un cadre AAL pour les aidants et les personnes âgées qui leur permet de maintenir un mode de vie actif sans limiter leur mobilité. Ce cadre comprend quatre outils AAL pour les environnements de mobilité : i) une application mobile de détection de chute ; ii) un système de surveillance du biofeedback à l'aide de capteurs portables ; iii) un service de localisation extérieure au moyen d'une chaussure équipée d'un système de positionnement global (GPS) ; et iv) une application mobile pour les proches aidants qui s'occupent de plusieurs aînés confinés à domicile. La proposition est évaluée et démontrée, et elle est prête à l'emploi.
2375f6d71ce85a9ff457825e192c36045e994bdd
null
91c7fc5b47c6767632ba030167bb59d9d080fbed
Nous introduisons une méthode pour suivre les instructions de navigation de haut niveau en cartographiant directement à partir d'images, d'instructions et d'estimations de pose des commandes de vitesse continues de bas niveau pour un contrôle en temps réel. Le réseau GSMN (Grounded Semantic Mapping Network) est une architecture de réseau neuronal entièrement différentiable qui construit une carte sémantique explicite dans le cadre de référence mondial en incorporant un modèle de projection de caméra à sténopé dans le réseau. Les informations stockées sur la carte sont apprises par l'expérience, tandis que la transformation du local au monde est calculée explicitement. Nous entraînons le modèle à l'aide de DAGGERFM, une variante modifiée de DAGGER qui échange des garanties de convergence tabulaire pour une vitesse d'entraînement améliorée et une utilisation de la mémoire améliorées. Nous testons GSMN dans des environnements virtuels sur un simulateur de quadricoptère réaliste et montrons que l'incorporation d'un mappage explicite et de modules de mise à la terre permet à GSMN de surpasser les bases de référence neuronales solides et d'atteindre presque une performance de politique d'expert. Enfin, nous analysons les représentations cartographiques apprises et montrons que l'utilisation d'une carte explicite conduit à un modèle interprétable de suivi d'instructions.
cc98157b70d7cf464b880668d7694edd12188157
De nos jours, il est très important de maintenir un niveau de sécurité élevé pour assurer une communication sûre et fiable des informations entre les différentes organisations. Mais la communication sécurisée de données sur Internet et tout autre réseau est toujours menacée d'intrusions et d'abus. Les systèmes de détection d'intrusion sont donc devenus un composant nécessaire en termes de sécurité informatique et réseau. Il existe différentes approches utilisées pour les détections d'intrusion, mais malheureusement, aucun des systèmes n'est jusqu'à présent complètement parfait. Ainsi, la quête de l'amélioration se poursuit. Dans cette progression, nous présentons ici un système de détection d'intrusion (IDS), en appliquant un algorithme génétique (GA) pour détecter efficacement divers types d'intrusions dans le réseau. Les paramètres et les processus d'évolution de GA sont discutés en détail et mis en œuvre. Cette approche utilise la théorie de l'évolution à l'évolution de l'information afin de filtrer les données de trafic et ainsi réduire la complexité. Pour mettre en œuvre et mesurer les performances de notre système, nous avons utilisé l'ensemble de données de référence KDD99 et avons obtenu un taux de détection raisonnable.
End of preview. Expand in Data Studio

Description

French translation of zeta-alpha-ai/NanoSCIDOCS.

Downloads last month
99

Collection including CATIE-AQ/NanoSCIDOCS-fr