#infosec

122 posts · Last used 5h

Back to Timeline
Boosted by hypebot @hypebot@goingdark.social
@SecureOwl@infosec.exchange · 6h ago
trying a new thing, have 3D printed a QR code and put it on the front porch QR code triggers a canary token want to see if any of the delivery companies are using the drop off proof of delivery pics to train AI #infosec
175
16
128
@veronica@mastodon.online · 10h ago
Copy Fail (CVE-2026-31431) has just been patched on Debian 13, with kernel version 6.12.85-1 from trixie (security). https://security-tracker.debian.org/tracker/CVE-2026-31431 #CopyFail #Debian #Linux #InfoSec #CVE
15
0
16
@rysiek@mstdn.social · 12h ago
A lot of people are apparently happily running a script clearly marked as a root exploit from some random website using curl | bash :blobsweat: Some do inspect the script, but then still run it using curl | bash anyway. :thaenkin: Incidentally, this very relevant blogpost about detecting curl | bash and serving different scripts based on that is almost exactly a decade old: https://web.archive.org/web/20230318063325/https://www.idontplaydarts.com/2016/04/detecting-curl-pipe-bash-server-side/ #CopyFail #InfoSec
31
0
48
Boosted by hypebot @hypebot@goingdark.social
@tinker@infosec.exchange · 17h ago
We went from precise web search with boolean operators to "natural language models" of AI search. You can tell nuerodivergent, Autistic, ADHD, AuDHD, etc folks created the early internet... ...and you can tell that neurotypical folks are now leading the current overlays of the internet. We used to have very precise search mechanisms. Specific words found in web pages with boolean operators (AND, OR, NOT, etc) to filter out the web pages that contained specific words and did not contain other words. Now, we search for web sites (or don't even search for web sites, yay abstraction layers that separate us from actual raw information) using "natural language" to try and coax out info. Have you ever been frustrated when you use very precise and direct language to communicate a specific idea with someone who then takes those specific words and adds obscure meaning and connotations and personal fears and bias to what you said... thus completely misunderstanding you... only to then try and clarify what you said with more precise language only to have that further degrade the conversation?! Yeah. That's the internet with AI "search" now. They took something that worked precisely and directly and muddied it. We've introduced the "double-empathy problem" to web search. I'm noticing that everyone in my circles, family, and especially work that are nuerotypical LOVE LOVE LOVE the new AI search mechanisms. They'll tell me exactly what the answer they received was - regardless of whether it's right or has multiple possible and conflicting answers. They just repeat what the AI said like it was the Gospel Truth. And they love talking to it like it was a "real person." It certainly takes my search parameters and adds its own interpretation to which I have to clarify and correct which is then misinterpreted further... I haven't tried vibe coding, but I can only imagine the horror. Can you imagine vibe pentesting with Claude / Mythos?!?!?! You know how neurodivergent folks gravitated towards IT because it was precise? Yeah, that's gone now. #AI #LLM #Claude #Mythos #infosec #Autism #ADHD
438
42
327
@beyondmachines1@infosec.exchange · 20h ago

Copy Fail: Linux Kernel Flaw Grants Root Access On All Major Distributions

A Linux kernel vulnerability called “Copy Fail” (CVE-2026-31431) allows unprivileged local users to gain root privileges with 100% reliability by corrupting the shared page cache. The flaw affects nearly all Linux distributions since 2017 and enables container escapes because the memory corruption does not modify files on disk.

If you run Linux servers, especially shared environments like Kubernetes clusters, CI/CD runners, or multi-tenant hosts, patch your kernel immediately to a version that includes the fix (mainline commit a664bf3d603d) for CVE-2026-31431. If you can’t patch right away, disable the vulnerable module by running echo “install algif_aead /bin/false” > /etc/modprobe.d/disable-algif.conf followed by rmmod algif_aead, and for untrusted code environments block AF_ALG socket creation via seccomp as a long-term safeguard. #cybersecurity #infosec #advisory #vulnerability https://beyondmachines.net/event_details/copy-fail-linux-kernel-flaw-grants-root-access-on-all-major-distributions-w-l-v-0-c/gD2P6Ple2L

1
0
2
@hbrpgm@adalta.social · 1d ago

📺 https://peer.adalta.social/w/31SRjrt5uVDoD5LpdkeoAn 🔗 🇩🇪🇺🇸🇫🇷 🔗 ℹ️

OpenAI’s Cybersecurity Action Plan Presents a Critical Temporal Advantage.

#cybersecurity #security #infosec #openai #artificialintelligence

0
0
0
@hbrpgm@adalta.social · 1d ago

📺 https://peer.adalta.social/w/7G8R2aqWXn34FS83wmSdkc 🔗 🇩🇪🇺🇸🇫🇷 🔗 ℹ️

Die Notwendigkeit einer schnellen, verantwortungsvollen Verteidigung gegen KI-gestützte Bedrohungen

#cybersecurity #security #infosec #openai #artificialintelligence

0
0
0
In reply to
@SecureOwl@infosec.exchange · 1d ago
One of the other domains I registered as I descended into this rabbit hole was "dev-user.com". Based on email traffic, owning that domain has been enough to give me admin access to a couple of Wordpress-powered sites, and multiple SaaS apps (particularly, staging/non-prod instances). All orgs involved have been informed. So to summarize current state of Plexfiltration: 1 - Deleteduser/deleted-user.com = 65 orgs using 2 - Internaluser.com - 12 orgs 3 - service-account.com - 8 orgs 4 - dev-user.com - 6 orgs #infosec
72
0
47
@quad9dns@mastodon.social · 1d ago
ISO an Infrastructure Provisioning Manager to join our amazing Quad9 team. 🌠 Interested? You can find all the details right here: https://quad9.net/about/jobs/ Remember, sharing is caring 🫶 #DNS #privacy #internetfreedom #infosec #getfedihired #jobs #hiring
25
0
76
In reply to
@wendythedruid@thistlenfern.org · 2d ago
Most messaging apps are #surveillance products with a chat interface bolted on. #Signal. #Matrix. The exceptions matter. Here's what to use and what to delete → https://twp.ai/9OUliZ #Signal #Privacy #InfoSec #EndToEndEncryption #DigitalRights
3
0
1
In reply to
@wendythedruid@thistlenfern.org · 2d ago
A #VPN doesn't make you anonymous. It moves your trust from your ISP to your VPN provider. That can be an upgrade. It can also be a sidegrade. How to tell the difference → https://twp.ai/9OUlig #VPN #Privacy #OpSec #InfoSec #CyberSecurity
1
0
1
In reply to
@wendythedruid@thistlenfern.org · 2d ago
Black tape over the laptop camera. A privacy screen on the train. A USB data blocker for sketchy ports. The body is where security ends. Most OpSec writing forgets that. The piece that doesn't → https://twp.ai/9OUlif #OpSec #Privacy #InfoSec #DigitalSafety
0
0
0
@wendythedruid@thistlenfern.org · 2d ago
Security isn't a product. Can't buy it, can't subscribe to it. It's a practice. Like running. Like grief. You do it daily or it doesn't work. New piece on OpSec for the rest of us → https://twp.ai/9OUlia #OpSec #PrivacyMatters #InfoSec #DigitalRights
1
1
2
@barbapulpe@blogs.gayfr.social · 5d ago

Protéger le fédiverse contre les bots IA

<h3 id="introduction">Introduction [...]</h3> Sensitive
Introduction Cette publication en français est à destination des utilisateurs francophones curieux. Elle sera suivie d’un article plus technique en anglais afin de détailler comment protéger les applications du fédiverse contre les bots IA. En effet, j’ai dû résoudre un certain nombre de problèmes avant d’arriver à une solution satisfaisante que je partagerai donc ici. Grâce à ça, tous nos services du fédiverse (présentés sur notre portail) sont désormais protégés. Contexte Dans les derniers mois et avec une accélération grandissante, j’ai constaté une augmentation significative du trafic vers l’ensemble de nos sites. Bonne nouvelle ? Regardons de plus près… Beaucoup de ce trafic venait de Chine ou Singapour notamment, avec des ordres de grandeur dépassant largement les pays européens (fois dix, voire plus). Étonnant pour des sites francophones… Un peu de travail pour bloquer avec le pare-feu les adresses IP malveillantes à partir de bases de données libres m’ont permis de ramener initialement ce trafic à un profil plus normal, où traditionnellement les pays dominants sont la France, la Belgique, la Suisse puis l’ensemble des pays européens suivis de la plaque continentale américaine. Mais ce répit a été de courte durée, et ce blocage (pourtant mis à jour en continu) ne suffit désormais plus. Un trafic toujours en croissance, émanant des pays les plus divers (mais notamment USA, Singapour, Chine et Hong-Kong…) et qui semble attaquer par vagues successives, avec des adresses IP sources multiples et différentes qui n’apparaissent pas sur les listes de blocage. Problème La cause à tout cela est claire : les « crawlers IA » ou « bots IA ». Il s’agit de comptes robots (c’est-à-dire automatisés, sans personne derrière) dont l’objectif est de parcourir l’ensemble des pages internet pour les analyser et apprendre des contenus de toutes les pages disponibles. Il y a toujours eu des comptes robots, par exemple ceux liés aux moteurs de recherche (type Google, Bing, DuckDuckGo…) et qui permettent d’indexer les pages afin que celles-ci se retrouvent dans les résultats des recherches que l’on utilise quotidiennement, mais ces derniers sont « raisonnables » dans leur sollicitation des ressources et leur intention. Les études récentes montrent que plus de la moitié du trafic internet est désormais le fait de bots, et que la croissance des bots IA est exponentielle. Ici, ces bots IA posent des problématiques particulières : Éthiques d’une part, car ils pillent littéralement les contenus pour les réutiliser et pour nourrir leurs modèles, au mépris des droits d’auteur, des licences et de la volonté de leurs créateurs ; Impactant les sites internet d’autre part, car ces bots sont très nombreux et consultent inlassablement et continûment les mêmes pages, provoquant des requêtes internet en masse sur les serveurs pouvant aller jusqu’à ralentir leur performance ou carrément les faire tomber (ce qu’on appelle un « déni de service »). A ce double titre, ils peuvent être considérés comme des maliciels (« malwares » en anglais). Et pour ces deux raisons, j’ai souhaité les bloquer, à la fois pour protéger nos serveurs et par respect pour nos utilisateurs et leurs contenus. Caractéristiques Normalement, l’internet est fait pour accommoder les comptes robots, et il y a plusieurs façons de les reconnaître. Adresses IP Ces adresses identifient quelle est la machine source qui envoie les requêtes vers un serveur. Certaines de ces adresses IP sont bien connues et identifiées comme étant malveillantes, et des listes publiques sont maintenues et utilisées pour les bloquer (y compris par moi). Les bots IA contournent pour beaucoup ce mode d’identification, en utilisant des adresses IP résidentielles, multiples et évolutives, rendant impossible leur blocage compte tenu du nombre et du caractère dynamique de telles listes. Le fichier robots.txt Historiquement, ce petit fichier texte présent à la racine des sites internet permet d’indiquer de manière normalisée ce que l’administrateur du site souhaite accepter comme type de comptes robots. Il est indicatif et n’effectue aucun blocage, c’est comme un autocollant « pas de pub svp » sur votre boîte aux lettres. Respecté par les bots « honnêtes » comme celui d’indexation du moteur de recherche Google ou Bing, il ne l’est malheureusement pas par la plupart des bots IA qui l’ignorent allègrement. Le User-Agent Quand une machine va consulter un serveur, elle envoie entre autres choses un en-tête (invisible à l’utilisateur) qui s’appelle le User-Agent et qui identifie quelle est l’application source qui fait la requête. On peut donc normalement l’utiliser pour savoir si on a affaire à un navigateur (et donc à un utilisateur humain) ou bien à une autre application, y compris un robot. Ces derniers devraient donc s’identifier comme tels, et par exemple la fédération (le processus automatisé qui permet à tous les serveurs du fédiverse de communiquer entre eux) respecte également cette pratique, le User-Agent de Mastodon identifiant bien cette application pour ne prendre qu’un exemple. Caractéristique de leur comportement voyou, beaucoup de bots IA se font passer pour un navigateur standard (et donc un utilisateur) en envoyant un User-Agent volontairement faux et trompeur. Il est donc difficile d’utiliser ce seul critère pour débusquer ces bots. Solutions possibles Vous l’aurez compris, beaucoup de bots IA sont difficiles à déceler car ils sont précisément conçus pour imiter la consultation d’un site internet par un humain. Alors, que faire ? Plusieurs solutions. Rendre son site internet privé Solution radicale, il est possible d’exiger la création d’un compte pour s’identifier et accéder au contenu de son site internet. Les bots IA ne disposant pas de ces identifiants, ne peuvent accéder qu’au contenu public et si celui-ci est vide, problème résolu. Seulement, cela impacte aussi les utilisateurs ainsi que la visibilité du site en question (le fameux « SEO ») et n’est pas forcément souhaitable si l’on désire afficher des pages publiques. D’autre part, il faut sécuriser la création de compte (avec par exemple un CAPTCHA) car certains bots savent le faire automatiquement, confirmation par e-mail comprise. Utiliser un service en ligne spécialisé Certains services en ligne (je pense notamment à Cloudflare) proposent un filtrage configurable et savent résoudre notamment le problème du déni de service. Pour ma part, je n’aime pas cette solution, car elle revient à introduire entre l’utilisateur et le site internet un intermédiaire (américain pour Cloudflare) qui voit passer tout le trafic en clair. Oui, vous avez bien lu, et donc toutes vos consultations, contenus, vos identifiants et mots de passe sont également disponibles à cet intermédiaire. Cette solution n’est pas acceptable par rapport aux objectifs d’éthique et de protection de la vie privée que je recherche, mais elle pourrait l’être pour d’autres. Se contenter des filtrages standards Si l’on reprend les éléments cités plus haut (adresses IP, fichier robots.txt, User-Agent), il est possible de bâtir un ensemble de filtrages qui amélioreront la situation par rapport au fait de ne rien faire du tout. Certains vont même jusqu’à bannir des pays entiers par leur adresse IP (Chine, par exemple) mais cela me semble trop radical et exclut de facto les utilisateurs légitimes de ces pays (et il y en a). Dans tous les cas, cette solution ne permettra pas de filtrer les bots IA qui utilisent des adresses IP résidentielles, qui ignorent robots.txt et utilisent un User-Agent de navigateur standard : une grande partie de ces bots, en fait. Solution choisie Voici ce que j’ai cherché à atteindre : Protéger nos utilisateurs du moissonnage massif et systématique de leur contenu ; Protéger nos serveurs des attaques en masse de ces bots IA ; Laisser nos sites internet visibles publiquement, car c’est pour moi une des vocations des réseaux sociaux, le choix étant laissé à l’utilisateur de sélectionner la visibilité de ses publications ; Ne pas utiliser un service en ligne dédié, car une de mes valeurs est de protéger la vie privée de nos utilisateurs, et dépendre d’une solution externe qui a toute visibilité sur le trafic et le contenu des consultations n’est pas acceptable ; Aller au-delà du filtrage « standard », et ainsi adresser la problématique des bots IA quels que soient leurs adresses IP et qui s’identifient comme des utilisateurs humains (font semblant d’utiliser un navigateur). Ainsi, j’ai choisi d’installer Anubis, un programme en source ouverte (disponible ici sous licence MIT) que j’auto-héberge afin d’être autonome et de garantir la sécurité et la confidentialité de la navigation. Impacts En tant qu’utilisateur, voici les impacts pour vous : Si vous utilisez une application (comme sur un smartphone) : aucun ; Si vous utilisez un navigateur : vous verrez apparaître une fenêtre de « vérification que vous n’êtes pas un robot » pendant une à deux secondes, puis vous serez redirigé automatiquement vers le site. À partir de ce moment, vous n’aurez plus cette fenêtre pendant une semaine (sauf si vous changez d’appareil ou de navigateur), et le cycle recommencera. Notez bien qu’Anubis requiert que le navigateur autorise Javascript et le dépôt de cookies, mais sans cela Mastodon ne fonctionnerait pas de toutes façons. Côté performances, cela a un impact négligeable sur le temps de réponse. Ce dispositif réalise le meilleur compromis entre gêne utilisateur (faible et sans action de votre part) et blocage du trafic IA. Car il s’agit bien d’un compromis ! Aucune solution de ce type ne peut être parfaite, il faut trouver le bon équilibre pour ne pas bloquer les utilisateurs légitimes. De plus, certains robots évolués seraient capables de contourner cette protection en reprenant l’ensemble des caractéristiques de l’utilisateur humain, mais cela leur demanderait plus de ressources de par le fonctionnement inhérent d’Anubis : ainsi, il ne s’agit pas tant de bloquer entièrement tous les bots IA, que de rendre leur utilisation en masse trop gourmande pour eux en essayant de consulter nos sites. Pour aller plus loin Ainsi, Anubis protège nos sites contre une grande majorité de bots IA, tout en laissant nos contenus publics visibles sans nécessiter de connexion. Toutefois, si vous recherchez une protection absolue, vous devez avoir en tête les éléments suivants : Comme on l’a dit, certains robots évolués (ou conçus spécialement) pourraient passer malgré tout ; Le mécanisme de la fédération fait que vos publications sont recopiées sur les autres serveurs des personnes qui vous suivent (si posts publics) ou s’il y a interaction (like, boost, commentaire) ; si ces serveurs ne sont pas protégés contre les bots IA, ces derniers pourraient accéder indirectement au contenu ; Si un compte vous suit et qu’il n’est autre qu’un bot IA masqué, il accédera également à votre contenu. Prenez garde à qui sont vos abonnés ! Si vous souhaitez vraiment augmenter encore votre protection par rapport aux deux derniers points, considérez alors jouer sur la visibilité de vos publications (qui impactera également comment les utilisateurs humains verront vos posts) : Tout ce que vous publiez en visibilité « publique » est visible… publiquement, et peut donc être moissonné à partir d’un autre serveur fédéré non protégé ; Si vous publiez en visibilité « public discret », on ne la verra pas dans les fils mais elle restera accessible publiquement à partir de son lien (qu’il faut donc connaître). Le moissonnage par un bot IA est plus difficile, mais peut se faire par exemple si ce bot suit un utilisateur qui interagit avec votre post ; Si vous publiez en mode « abonnés seuls », il n’y a que ces derniers qui peuvent voir vos publications (ce qui nécessite donc d’avoir un compte et de vous suivre). Il faudra alors veiller à ce qu’aucun compte abonné ne soit en réalité un bot IA masqué ; La seule protection absolue : la visibilité « mention privée ». Mais alors, on n’est plus sur un réseau social… Si vous suspectez un compte « bot IA masqué » sur une instance, n’hésitez pas à la signaler. Si vous rencontrez un souci d’accès, contactez votre administrateur. Pour conclure En conclusion, tous nos services sont protégés contre les bots IA ce qui vous offre un haut niveau de protection contre le vol en masse direct et systématique de vos données – mais ce n’est pas une protection absolue. Nous resterons évolutifs dans nos solutions de protection, car c’est un jeu du chat et de la souris. L’internet reste une jungle et tout ce qui est publié publiquement restera accessible à un acteur déterminé, pour l’éternité. Techno-Fil et faits divers Le blog d’un informaticien, animateur de multiples réseaux sociaux du fédiverse, administrateur système versé dans la sécurité informatique et la défense de la vie privée. Je publierai des articles relatifs à l’informatique, la sécurité, la protection des données personnelles, avec le souci de vulgariser au maximum, plutôt en français mais pas exclusivement. #infosec #security #privacy #dataprivacy #opensource #sysadmin #linux #fediverse #hardware #watercooling
0
0
0
In reply to
@SecureOwl@infosec.exchange · 3d ago

Haven’t had much new stuff to report on this topic for a bit…until today!

3 new arrivals to the deleteduser dumpster:

  • a company that handles public/guest wifi access in Europe

  • An EU based sports club booking platform

and, extremely concerningly:

  • a period tracking app, that emails out full PII and data

All have been contacted.

In lighter plexfiltration news, a developer who was testing something out sent a ‘hello, test’ message to a ‘deleted user’, so I was able to respond with ‘test worked - hows it going?’ which I can only assume really freaked them out.

Out of the now 60ish orgs contacted, have heard back from 2 who have fixed their use of deleteduser.com. I’d say that maybe 3 or 4 have dropped off, but the rest still continue.

Ironically, this includes all of the tech and cybersecurity companies that were contacted.

#infosec

29
0
11
Boosted by jwz @jwz@mastodon.social
In reply to
@SecureOwl@infosec.exchange · 3d ago
I just got given admin access to some Medicaid filing platform because I own the domain internaluser.com #infosec
51
1
24
@brian_greenberg@infosec.exchange · 6d ago
Anthropic recorded over 16 million interactions with Claude from about 24,000 fake accounts, which are reportedly linked to Chinese companies trying to cheaply copy the model. Google faced more than 100,000 attempts to copy Gemini. OpenAI reports that most distillation attacks they find come from China. This is not an isolated event. It is a repeatable and scalable strategy. Breaking the terms of service isn't enough to stop people when the reward is closing a years-long gap in AI technology. The House Select Committee on China wants to label 'adversarial distillation' as industrial espionage under the Economic Espionage Act, which makes sense. At the moment, getting caught just means losing an account. That is hardly a real punishment. The Trump-Xi summit is approaching, and the White House is reportedly considering sanctions. However, Trump has previously traded away export controls for other deals. If that happens again, AI companies may have to protect their intellectual property by themselves. When laws fail to keep pace with new types of attacks, attackers automatically have the advantage. If your company is developing anything unique using advanced AI models, your API access logs are now part of your security risks. https://arstechnica.com/tech-policy/2026/04/us-accuses-china-of-industrial-scale-ai-theft-china-says-its-slander/ #AI #Cybersecurity #NationalSecurity #IntellectualProperty #Geopolitics #security #privacy #cloud #infosec #Espionage
1
0
3
@shodansafari@infosec.exchange · 5d ago
ASN: AS963 Location: Los Angeles, US Added: 2026-04-18T06:49 #shodansafari #infosec
1
1
0
Boosted by Kevin Karhan @kkarhan@jorts.horse
@brian_greenberg@infosec.exchange · 6d ago
Trying to be secure... You deleted the app. You turned on disappearing messages. You did everything right. The FBI can still read your Signal messages. Huh? This wasn't a Signal failure. Signal did its job. iOS didn't. The phone was storing notification previews in a database long after the app was gone, because someone turned on Lock Screen message previews. Apple just patched it in iOS 26.4.2, and they only found out about it because a defendant's court case exposed it during testimony. 🔎 This is why privacy promises and privacy architecture are two different things 📲 Update your phone. Not because you're hiding something. Because your phone is quietly keeping receipts you don't know about. ⚠️ And if you're a CISO still telling employees that "just use Signal" is a complete privacy answer, it's time to revisit that conversation. https://www.macrumors.com/2026/04/22/ios-26-4-2-notification-database-security-fix/ #Cybersecurity #Privacy #iOS #InfoSec #Leadership #security #cloud #infosec #AlwaysUpdate
11
1
13
Boosted by Greg Bell @ferrix@mastodon.online
@tinker@infosec.exchange · Apr 23, 2026
Ummm... Is SANS training ICE? https://sam.gov/workspace/contract/opp/99f8bdc298c34f06bcac9bd7e39b1bca/view Edit to add: SANS is training ICE how to pull information off of harddrives, etc. FOR498: Digital Acquisition and Rapid Triage "Course Overview: A digital forensic acquisition training course, FOR498 provides the skills to identify the many and varied data storage mediums in use today, and how to collect and preserve this data in a forensically sound manner despite how and where it may be stored. This forensics data collection course covers digital acquisition from computers, portable devices, networks, and the cloud, and teaches rapid triage—the art and science of identifying and starting to extract actionable intelligence from a hard drive in 90 minutes or less." This training will directly hurt people. #sans #ice #infosec
66
17
128