En effet, 37% des logiciels malveillants seraient hébergés sur des machines américaines. La Chine, incluant Hong Kong, arrive en deuxième place avec 27,7%. Une question d’éducation, selon les experts de chez Sophos : « Le premier pas vers la sécurité est d’inculquer un souci pour la sécurité en ligne, ce qui pourrait être accompli grâce à des campagnes de publicité ou des séminaires », expliquait en entrevue à un site spécialisé Graham Cluley, consultant pour l’entreprise spécialisée en sécurité informatique. Une des attaques les plus populaires en 2008 visait à reproduire l’identité d’un fabricant d’antivirus, puis d’induire l’usager en erreur en lui annonçant un virus. L’usager devait alors payer ou installer des logiciels malveillants pour se débarrasser des avertissements.
Le nouveau noyau Linux 2.6.28 est disponible depuis à peine deux jours, et il fera date pour tous les utilisateurs un peu avancés des distributions qui en découlent. Il corrige des problèmes, certes, mais porte surtout sous les projecteurs deux nouveautés : le Graphics Execution Manager et le système de fichiers Ext4.
Pour ce dernier, ce n’est pas une surprise en soi, car cela faisait un moment qu’il était en préparation. Il a tout récemment été déclaré comme finalisé et est donc supporté officiellement par le noyau Linux. Comme son nom l’indique, Ext4 est le successeur d’Ext3, le système de fichiers « par défaut » utilisé par bon nombre de distributions Linux.
Le but d’Ext4 est d’améliorer les performances et la fiabilité lors des lectures et écritures des données. Pour tous ceux qui utilisent l’Ext3 actuel, il existe une procédure de migration qui évite le formatage, ce que beaucoup apprécieront. La taille maximale d’une seule partition atteint désormais l’exaoctet, ce qui correspond à la bagatelle de 1000 To, soit 1 000 000 Go. Par rapport à Ext3, les « nœuds » sont vérifiés seulement s’ils sont utilisés, une allocation différée des données a été mise en place, ainsi que la vérification du journal par une somme de contrôle (checksum).
Le Graphics Execution Manager, ou GEM, est un gestionnaire de mémoire graphique. Il a pour but d’augmenter allègrement les performances. Le GEM a été développé initialement par deux ingénieurs de chez Intel, Keith Packard et Eric Anholt. Selon des tests préliminaires, les performances d’une puce i915 étaient augmentées de 50 à 60 %. Seuls d’ailleurs les pilotes Intel sont compatibles avec le GEM, mais l’inclusion dans le noyau promet une prise en charge prochaine par bien d’autres pilotes.
Comme d’habitude, le moyen le plus simple d’installer le nouveau noyau est de lancer le module de mise à jour intégré à la distribution utilisée.
Vincent Hermann
Le trafic (téléphonique) Europe vers le Proche-Orient et l’Asie est interrompu plus ou moins conséquemment. L’Algérie et la Tunisie ne sont pas affectées.
La rupture de trois câbles sous-marins en Méditerranée perturbe depuis vendredi matin les liaisons téléphoniques entre l’Europe et la zone Asie/Proche-Orient ainsi que l’internet en Egypte et au Moyen-Orient, selon l’opérateur France Télécom et un prestataire en Egypte. « La coupure, dont les causes restent encore imprécises, est localisée en Méditerranée, entre la Sicile et la Tunisie, sur des segments reliant la Sicile à l’Egypte », a expliqué France Télécom, qui dit avoir constaté ces pannes en début de matinée et va envoyer sur place un bateau de maintenance. « Le trafic (téléphonique) Europe vers le Proche-Orient et l’Asie est interrompu plus ou moins conséquemment », a-t-il indiqué, précisant que l’Algérie et la Tunisie n’étaient pas affectées. Parmi les zones les plus touchées, les liaisons vers les Maldives sont hors service à 100%, vers l’Inde à 82%, vers le Qatar à 73% et vers Djibouti à 71%, a précisé France Télécom, qui a établi ce bilan vendredi matin. Le trafic est également perturbé vers de nombreux autres pays, notamment le Liban, l’Arabie Saoudite, l’Egypte ou la Malaisie.
Le trafic internet est « partiellement » touché vers l’île française de la Réunion (océan Indien) et à 50% vers la Jordanie. France Télécom a immédiatement mis en alerte l’un des deux bateaux de maintenance présents sur la zone Méditerranée. Ce navire-câblier, basé en France, appareillera cette nuit avec à bord 20 kilomètres de câble de rechange. Il devrait être sur place lundi matin. Selon France Télécom, la situation devrait s’améliorer le 25 décembre et être revenue à la normale au 31 décembre. Au Caire, le réseau internet était indisponible vendredi et des perturbations étaient recensées ailleurs au Moyen-Orient, ont indiqué la compagnie prestataire, Reliance GlobalCom, dont le siège est en Inde, et l’agence officielle égyptienne Mena. Outre l’Egypte, les perturbations touchent l’ensemble de la région Moyen-Orient, selon la Mena. D’après la même source, la coupure s’est produite vendredi à 08h00 GMT et Reliance GlobalCom a envoyé un sous-marin pour faire des réparations. Pour rétablir au plus vite le service, des câbles internet de renfort devraient être utilisés ainsi que des connexions satellites, et, en Egypte, l’amélioration devrait intervenir d’ici à 12 heures, a ajouté la Mena. En janvier 2008, cinq câbles au Moyen-Orient et en Europe avaient subi des dégâts, entraînant des perturbations dans les services Internet. Les centres d’appels avaient été touchés en Égypte, comme en Inde, où ils ne fonctionnaient plus qu’à 30% de leur capacité. La panne avait également touché plusieurs pays arabes du Golfe, notamment les Émirats arabes unis, le Koweït, l’Arabie Qaoudite, le Qatar et Oman.
Par
La faille non corrigée d'Internet Explorer, identifiée le 11 décembre dernier, est en train de faire des dégâts sur le Web.
Selon Rick Ferguson, expert de Trend Micro, plus de 10.000 sites internet ont été infectés", pour l'instant principalement en Chine, depuis que la faille a été rendue publique.
Dans son bulletin de sécurité, Microsoft liste les produits concernés par cette faille : Internet Explorer 5.01 Service Pack 4 , Internet Explorer 6 Service Pack 1, Internet Explorer 7 et Internet Explorer 8 Bêta 2 ainsi que toutes les versions de Windows suivantes : Windows XP Service Pack 2, Windows XP Service Pack 3, Windows Server 2003 Service Pack 1, Windows Server 2003 Service Pack 2, Windows Vista, Windows Vista Service Pack 1 et Windows Server 2008.
«Toutes les versions sont touchées, mais à des degrés divers. Il est très rare qu'une faille soit publiée sans que nous soyons prévenus avant, afin de la corriger avant» » a précisé Bernard Ourghanlian, directeur technique et sécurité chez Microsoft France, à l'AFP.
La visite d'un site "contaminé" suffit à infecter la machine d'un utilisateur. Le blog de Cert-Lexsi donne des informations plus techniques sur la faille et son exploitation.
En attendant la publication d'un correctif, dont la date n'est pas communiquée, Microsoft conseille aux utilisateurs de placer le réglage du niveau de sécurité de leur navigateur sur "Haut" et de bloquer l'exécution du fichier Ole32db.dll.
De son côté, Trend Micro conseille d'utiliser Firefox ou un autre navigateur comme Opera.
A mesure que se développe le trafic sur les autoroutes de l'information, le besoin se fait de plus en plus précis pour de nouveaux investissements en vue,
notamment, d'accompagner le développement de l'offre en bande passante.
Derrière les solutions envisageables à ce problème, se profile l'hypothèse d'une sérieuse remise en cause du principe de la neutralité de l'accès à Internet.
Un rapide tour d'horizon des pistes actuellement en discussion dans les grandes métropoles consommatrices de contenus multimédias en réseaux, laisse poindre une sérieuse option pour le recours à des solutions qui, le moins que l'on puisse craindre est, qu'à terme elles remettent en cause le principe de la neutralité car introduisant un recours à des systèmes de paiements qui finiraient par créer des voies de bande passante plus rapide, parce que payante, donc excluant les utilisateurs incapables de se les offrir. L'équation est, il est vrai, claire et inévitable : selon l'Idate (Institut de l'audiovisuel et des télécommunications en Europe), alors que le trafic Internet augmente de 10% par an, la consommation de vidéos en ligne progresse au rythme de 100% par an. Or, les capacités du réseau en bande passante n'ont progressé "que" de 68% l'année dernière.
Ce sont les tentatives engagées par des opérateurs de l'Internet, soucieux d'apporter des réponses techniques, économiquement viables, à cette problématique, qui ont placé le débat sur la scène publique. Durant les dernières élections présidentielles américaines, la question a même figuré parmi les thèmes de campagne, à l'image du président élu, Barack Obama, qui s'en est tenu au principe de la neutralité "Lorsque les opérateurs commencent à donner des privilèges à certains sites web et à certaines applications par rapport à d'autres, les voix les plus faibles se font écraser, et nous tous y perdons", affirmait Obama pendant la campagne électorale... sur le campus de Google. La presse américaine rapporte que le président élu serait beaucoup plus flou dans ses déclarations les plus récentes.
Il y a quelques années déjà, commençait aux Etats-Unis d'Amérique un véritable chassé- croisé de positions à travers lequel se mettaient en opposition des cercles officiels mus par des lobbies liés aux réseaux multimédias. Pressée par l'industrie de lui lâcher la bride en matière de facturation de services, la FTC (Federal Trade Commission) a maintenu une attitude favorable à la neutralité de l'Internet, et invité régulateurs et police fédérale à rester prudents.
Or, certains acteurs du Web ne l'entendent pas de cette oreille et souhaitent que la facturation soit liée au service ou au débit. Par exemple, le débit d'accès à un site Web pourrait être différent selon ce que l'utilisateur paie? Plus il paie, et plus le taux de débit sera important !
Un point de vue rejoint par une position des parlementaires américains qui dans le même temps ont versé un peu dans le moulin de ces opérateurs. La Chambre des représentants a en effet rejeté, durant la même période, en 2006, à 269 voix contre 152 un amendement proposé par les démocrates modifiant le projet de loi Cope (Communications Opportunity, Promotion and Enhencement). Cet amendement avait pour but d'encadrer le principe de neutralité sur Internet en ne conditionnant pas la qualité de l'accès au volume de contenu diffusé.
A l'origine, le Cope Act doit permettre une installation plus généralisée et facilitée du haut-débit, entre autres, aux Etats-Unis. Il comporte un nombre de points traitant de la neutralité d'Internet jugé suffisant par les républicains et les équipementiers.
Le point en débat : la proposition de deux rands opérateurs américains, At&T et Bellsouth, de monnayer la vitesse des débits pour améliorer la rentabilité de leurs investissements, en infrastructures réseaux haut débit. Concrètement, il s'agit de taxer les diffuseurs de contenus les plus gourmands en bande passante. Ceux qui ne payent pas verraient alors leur bande passante se réduire. Un Internet à deux vitesses en quelque sorte.
Les inquiétudes n'ont pas gagné que les équipementiers puisque même les opérateurs du net, soucieux d'offrir des capacités de circulation des fichiers plus rapides, se sont engagés dans des voies qui ont accentué les craintes d'une sérieuse sélection par l'argent.
Le géant Google n'a-t-il pas été accusé de « tourner le dos au principe de Net Neutrality (neutralité du Net) » ? Une question ouvertement posée par le Wall Street Journal suite à l'annonce officieuse de négociations entre le moteur de recherche et des opérateurs téléphoniques et du câble, visant à faire héberger des serveurs Google directement sur les réseaux de ces opérateurs. Selon le quotidien, si ces négociations débouchaient sur un accord, Google abandonnerait un des piliers de la neutralité du Net : la non-préférence envers un opérateur ou un autre pour la transmission des données.
Piqué au vif par l'article du journal, Richard Whitt, conseiller pour les télécoms et les médias de Google à Washington, a répondu sur son blog : s'il concède que le moteur de recherche compte bien placer des serveurs de cache chez les opérateurs, il ne voit pas en quoi cela violerait la neutralité du Net. « Tous les accords de colocation de Google avec les FAI (fournisseurs d'accès à internet) - que nous avons menés via des projets appelés OpenEdge et Google Global Cache - sont non exclusifs, ce qui implique que d'autres entités peuvent bénéficier du même type d'arrangement » explique-t-il. « De plus, aucun de ces FAI ne réclame (ou n'encourage) que le trafic de Google soit traité prioritairement par rapport à d'autres trafics. »
Richard Whitt poursuit en affirmant que cela ne change en rien la position de Google sur la neutralité du Net, un principe auquel « Google reste solidement attaché ».
Il explique aussi que ces accords de colocation avec les opérateurs ne visent qu'à améliorer le temps de chargement des pages depuis leurs serveurs, en particulier pour le téléchargement et le visionnage de vidéos, et à éviter la redondance sur les noeuds de réseaux. En effet, ces serveurs de cache seront utilisés pour mettre rapidement à disposition des abonnés des câblo-opérateurs et fournisseurs d'accès internet à haut débit, les pages et vidéos les plus demandées par les internautes.
En dépit de ces déclarations, il est néanmoins légitime d'avoir des craintes sur la manière dont pourraient être utilisés ces serveurs de cache : diriger les internautes vers certaines pages au détriment d'autres. Une autre menace que, de l'avis de certains observateurs, Google et les FAI pourraient faire peser sur le principe de neutralité du Net
Au plan technologique, doucement mais sûrement, des solutions sont en voie d'expérimentation.
Début juin, Time Warner a ainsi mis en place une tarification selon la bande passante utilisée : 20$ par mois pour 5 Go, 55$ pour 20 Go et 65$ pour 40 Go, avec un dollar supplémentaire par Go au-delà.
Comcast, le plus gros fournisseur d'accès par le câble aux États-Unis, a embrayé en testant des techniques de mesure de trafic plus pointues en Pennsylvanie et en Virginie, après avoir fait l'objet d'un procès pour interruption de téléchargement. L'objectif est de limiter la bande passante pour les gros utilisateurs, et peut-être de surtaxer le 1% d'entre eux qui utilisent plus de 250 Go par mois.
Des problèmes de capacité vont de toute façon se poser sur le réseau à plus large échelle quand on sait que par exemple, Skype avec largement plus de trois cents millions d'utilisateurs en voit déjà près du tiers utiliser la vidéo sur IP pour communiquer - avec les implications en termes de bande passante.
La nouvelle technologie, DOCSIS 3.0 (50 Mbits/sec et jusqu'à 160 à l'avenir), que Comcast souhaite mettre en place pour 20% de ses utilisateurs permettra-t-elle de faire face (entre autres possibilités) ? Les infrastructures devront de toute façon suivre à tous les niveaux et ça, ça n'est pas gagné d'avance. Aux dires de certains observateurs, l'usage même de l'Internet, un réseau absolument pas prévu à l'origine pour tout ce qui s'y pratique aujourd'hui, risque de s'en trouver modifié.
Pour de nombreuses personnalités de la communauté du Web, Vint Cerf (co-inventeur du protocole TCP/IP) en tête, il est acquis, "l'Internet ne sera plus jamais le même".
K.T
3.000 attaques de piratage/mois enregistrées à l’EEPAD.
Tant attendu, le cadre législatif sur la cybercriminalité, fin prêt, s’avère une nécessité et il y va même de la sécurité nationale, quand on sait le nombre d’affaires en justice liées à ce fléau. Il demeure qu’en l’absence de statistiques fiables, l’on ignore l’ampleur de ce phénomène transnational. Les rares données sur le sujet nous parviennent de l’EEPAD qui avait estimé récemment le nombre d’attaques contres son environnement à hauteur de 3.000 par mois. Son P-DG, Nouar Harzallah, avait affirmé à ce titre que 60 à 80% de ces attaques ciblant les sites web sont d’origine étrangère en provenance notamment de la Russie et des pays de l’Europe de l’Ouest, alors que les 20 à 30% restants sont l’œuvre de jeunes amateurs algériens.
Au Etats-Unis, les auteurs des cybercrimes spécialisés dans «le phishing» auraient causé une perte de 3 milliards de dollars aux internautes du pays de l’Oncle Sam et ce, en usant de faux sites web destinés à capter les numéros de cartes bancaires. La menace informatique a changé de visage, affirment les spécialistes, le risque ne vient pas du seul courrier électronique, mais la visite de certains sites web contaminés transmet aussi les virus. Il a été révélé aussi qu’à travers le monde, près de 30 millions de PC zombies infectés en secret et télécommandés à distance pour mener des attaques ou envoyer des spams sont en vente.
L’Algérie, qui n’est pas coupée de ce monde du crime moderne, a vu s’accentuer les risques en termes de sécurité informatique du fait de la progression continue du nombre d’utilisateurs, d’où la promulgation du dispositif juridique sur la base d’une synergie intersectorielle de lutte contre les crimes et délits liés aux systèmes informatiques et aux TIC. Et comme l’a si bien souligné Younès Grar, conseillé auprès du ministre de la Justice, la nouvelle loi doit prévoir des mesures et des solutions techniques à même de contrecarrer ce phénomène. Au-delà de mettre en place un arsenal de mécanismes et de solutions applicatives du cadre législatif, l’aspect éducatif des utilisateurs du net et de l’outil informatique est aussi à prendre en charge. La sensibilisation et la formation des internautes sur la question restent ainsi une priorité absolue afin de mieux informer sur les risques et vulnérabilités des systèmes informatiques.
Tout ordinateur connecté à un réseau informatique est potentiellement vulnérable à des attaques de chevaux de trois, de vers ou de virus. Plusieurs types d’attaques qui peuvent se manifester par l’interception de communication avec usurpation d’identité ou détournement de message par des dénis de service telles les vulnérabilités des logiciels serveurs, par l’intrusion ou par les trappes sont désormais identifiées.
De part son comportement, l’utilisateur est aussi considéré dans la majorité des cas comme le maillon faible à cause notamment du choix peu réfléchi du mot de passe qui facilite la tâche aux hackers et l’acceptation de messages parvenant d’adresse inconnues.
90% des algériens ne connaissent pas l'Internet.
Lire le texte en version arabe.
ALGER - Le Cyberparc de Sidi Abdallah doit avoir une vocation de synergie entre l'économie des technologies de l'information et de la communication (TIC), ainsi que la création de petites entreprises innovantes, a indiqué, lundi à Alger, Hamid Bessalah, ministre de la Poste et des Technologies de l'information et de la communication. M. Bessalah qui intervenait à l'ouverture de la journée "portes ouvertes" sur le multilocataire (Cyberparc de Sidi Abdallah), a affirmé que "le cyberparc doit avoir une vocation de synergie entre l'économie des TIC, la recherche et la création de petites entreprises innovantes, jouant ainsi le rôle de point focal pour les laboratoires nationaux de recherche en TIC". |
[Aps 17/11/08] |