Google to Acquire Looker

Google spent $2.6 billion all cash to acquire business intelligence platform Looker.

Google LLC today announced that it has entered into an agreement to acquire Looker, a unified platform for business intelligence, data applications and embedded analytics, in a $2.6 billion all-cash…

Source: Alphabet : 06.06.2019 Google to Acquire Looker more | MarketScreener

IntelliCode for AI-assisted now available

Microsoft trained an AI with Github projects that have more than 100 stars on them. The AI is supposed to help coding. And it is available now. AI is not yet there to take a programmers job, but Facebook took similar approaches to speed up development. Be afraid, coding people.

Symbolbild (Techcrunch)

IntelliCode, Microsoft’s tool for AI-assisted coding, is now generally available. It supports C# and XAML in Visual Studio and Java, JavaScript, TypeScript and Python in Visual Studio Code. By default, it is now also included in Visual Studio 2019, starting with the second preview of version 16.1, which the company also announced that. IntelliCode is […]

Source: Microsoft’s IntelliCode for AI-assisted coding comes out of preview | TechCrunch

Machine Learning Confronts the Elephant in the Room 

Machine Learning helps identifying the elephant in the room. Literally.

A visual prank exposes an Achilles’ heel of computer vision systems: Unlike humans, they can’t do a double take.

Source: Machine Learning Confronts the Elephant in the Room | Quanta Magazine

Arbeitskreis Cyber-Intelligence

Datenquellen gibt es genug. Welche kann man nutzen, welche darf man nutzen, welche möchte man nutzen. Natürlich stellt sich auch die Frage, welche Information hätte man gerne, die in bekannten Datenquellen nicht zu finden sind.

Und darüber hinaus, welche Information möchte man daraus gewinnen. Wie hilfreich sind existierende Aufbereitungen wie beispielsweise der “Sicherheitstacho” der Deutschen Telekom. Welche Fragestellungen muss eine Auswertung beantworten? Und kann so eine Aufbereitung gestaltet werden, um einen Konkreten Mehrwert zu bieten.

Kickoff Veranstaltung “Arbeitskreis Cyber Intelligence”

Die Unsicherheit mit der Sicherheit

Vergangene Woche hatte ich die Ehre an einer Diskussionsrunde teilzunehmen, die sich mit dem Thema “Cyber Situational Intelligence” befasste. Teilnehmer der Runde waren durchaus namhafte Vertreter der in München ansässigen IT-Sicherheits- und Servicedienstleister. Fragestellung der Rund war es, wie man aus bestehenden Daten Informationen gewinnt, die der IT-Sicherheit dienlich sind. “Intelligence” ist in diesem Zusammenhang auch durchaus Nachrichtendienstlich zu verstehen, der Vorgang soll aus reinen Daten Hinweise auf Auffällige Vorgänge geben und “Actionable” Ereignisse anzeigen, die also eine Handlung erfordern.

Sehr schnell ist in dieser Runde die Unklarheit deutlich geworden, wie man sich dem Thema nähern kann. Zwar herrschte schnell Konsens darüber, dass aus konventionellen, heute am Markt erhältlichen Systemen, äußerst leicht eine Aufbereitung fast beliebiger Daten erstellbar ist, am Ende aber keine Bewertung stattfindet, die über das Produzieren weiterer Logfiles hinausgeht – also keine Information erstellt wird die “Actionable” Ereignisse von irrelevanten Vorgängen trennt.

Es gibt schier unerschöpfliche Datenquellen: interne, wie externe. Bei den Internen sind Firewalls, Intrusion Detection/Prevention Systeme (IDS/IPS), Web Application Firewalls (WAF), Webserver Logs, Application Server Logs, Datenbank Logs, um die Netzkomponenten zu nennen, wie auch Virenscanner und Desktopsicherheitssoftware. Im wesentlichen strukturierte Daten. Externe Quellen sind “Das Internet” mit seiner Blogosphäre, Pastebin, Twitter, Facebook und allen anderen sozialen Medien, die unstrukturierte, menschliche Kommunikation öffentlich machen, darüber hinaus aber auch Bewertungssysteme, Spamdatenbanken, Web-Reputations-Systeme, die man anzapfen kann.

Der Ansatz, den die Runde weiter verfolgte, war zentrale und übergreifende Stellen zu schaffen, die ein systematisches Vorgehen über Organisationsgrenzen hinweg ermöglicht. Die offenbare Problematik an dieser Stelle ist welche Daten von einer Zentralen Stelle verarbeitet werden sollen und welche Ergebnisse erwartet werden. Nicht zuletzt, weil auch die (rechtlichen) Anforderung jeder Industrie anders sind.

Grundsätzlich scheitert jeder Versuch Vorhersagen zu treffen auch an den bestehenden Erkennungssystemen. Jede WAF oder Virenscanner versucht schlussendlich bekannte Muster in Angriffen zu erkennen. Darüber hinaus ist die Qualität der Daten in der Regel nicht sehr hoch,  Ergebnisse sind schlicht zu unsicher. Eine zentrale Stelle kann zwar helfen, einen Unsicherheitsfaktor zu bestimmen und Ergebnisse quantitativ zu bewerten, eine automatisierte Entscheidung möchte aber sicher kein IT Verantwortlicher Aufgrund des Ergebnisses einer dritten Stelle treffen.

Natürlich ist es in der Praxis schwerere als in der Theorie, aber ist eine IT Organisation bereits mit dem Wissen über Schwächen ausgestattet  solle Energie besser in die Behebung der bekannten Schwächen fließen. Ein Graph, wie oft eine Lücke ausgenutzt worden ist, hilft zu dem Zeitpunkt kaum noch weiter.

Security Incident Event Management (SIEM) Systeme und deren potentielle Nachfolger können in der Praxis sicher helfen, mehr Wissen über komplexe Infrastruktur herzustellen. Aber ohne die menschliche Transferleistung und “Intelligence”, die erkannte Fehler auch behebt, werden solche Systeme auch in absehbarer Zukunft aufwendige und teure Reportingtools bleiben. Es bleibt ein großes und weites Feld für Innovation, auch wenn die notwendigen Ziele leicht misszuverstehen sind.