Ein Netzwerkkabel und seine Probleme

Jüngst war ich mal wieder am Rätseln, warum meine digitalen Bestandteile nicht so wollten wie sie sollten, um dann zu entdecken, dass es schlicht am Netzwerkkabel lag.

Was war geschehen?

Seit Kurzem nenne ich sehr schnelles Internet mein Eigen. Bisher hatte ich eine 25 Mbit-Leitung gehabt, und die jetzt getauscht gegen 200 Mbit.

Im Volksmund würde es wohl so formuliert: Bisher hatte ich eine 25.000-er Leitung, jetzt habe ich eine 200.000-er Leitung.
Ich hatte entdeckt, dass ich Letztere über meinen Kabelanschluss (also nicht mehr über Telefonleitung) haben könnte, und das für kleineres Geld als bisher. Also warum nicht? Eine Bandbreite von 200 Mbit würde ich zwar nie ausnutzen, aber warum mehr bezahlen als nötig.

Nachdem einige technische Schwierigkeiten überwunden waren, war der Anschluss letztlich hergestellt worden.

Mein Tablet zeigte mir dann per Speedtest auch brav wunderbare 195 Mbit an. Zwar nicht gleich zu Beginn, aber nach ein paar Tagen. Der Techniker hatte ja auch gemeint, es würde ein paar Tage dauern, bis sich alles „eingespielt“ hätte.

Letzte Woche dann, hatte ich mal wieder was an meinem Linux-PC zu erledigen. Darunter auch ein größerer Download. Es wunderte mich, dass die Zeitdauer des Downloads doch erheblich länger war, als gedacht.

Hinterher mal den Speedtest angeworfen, und der zeigte mir ungefähr 80 Mbit als Download an..
Hä ????

Nach einigem Überlegen kam ich dann auf des Pudels Kern, dass meine Onboard-Netzwerkkarte ja nur eine 100 Mbit-Karte wäre. Also könne ja gar nicht mehr kommen! War ja logisch …. wie wollte ich 200 Mbit empfangen können, wenn die Netzwerkkarte nur 100 Mbit kann?
Eine Gigabit-Karte hatte ich nicht hier, also kurzerhand eine im Netz bestellt, für 9,78 (inkl. Versand),

Netzwerkkarte

und die war dann auch 2 Tage später da. Flugs eingebaut, beim Hochfahren des Rechners im BIOS noch kurz die Onboard-Karte deaktiviert und schon hatte ich …. erneut 100 Mbit Bandbreite.

Was war denn nun wieder los?

Tja, jetzt kam zum Tragen, dass ich, als einer der ursprünglich aus der Windows-Welt kommt, noch nicht ganz so fit bin, wenn es darum geht, unter Linux (Ubuntu) einen Treiber zu installieren. Denn, so vermutete ich, dass ich wohl den Treiber ersetzen müsste, durch jenen, der auf der mitgelieferten CD enthalten wäre (zumindest hatte das der Anbieter versprochen).
Und richtig, auf der CD war er auch vorhanden. Und sogar eine Beschreibung als Readme-Datei, wie die Installation erfolgen müsse. Terminal geöffnet, alten Treiber entfernt, neuen Treiber aufgespielt, und schon hatte ich …. erneut 100 Mbit Bandbreite.

Nun war aber in der Beschreibung noch die Rede davon, dass man die höhere maximale Geschwindigkeit, also 1000 Mbit, per Tool einstellen könne (gemeint ist jetzt das, was die Karte maximal kann (so Karten können in der Regel 100 oder 1000 Mbit). Also mittels ethtool auf die höhere Geschwindigkeit gestellt, und schon hatte ich …. erneut 100 Mbit Bandbreite.

Langsam gingen mir die Möglichkeiten aus. Mit ethtool die Werte ausgelesen, auf die die Karte eingestellt ist, und die sagten mir, dass die Karte mit 10 Mbit laufen würde.
Hää ? Schreibfehler ?
Also nochmal eingegeben. Änderung = NULL

Jetzt brat mir aber einer einen Storch! Warum lief das Ganze auf 10 Mbit, wenn ich doch laut und klar übermittelte, dass ich die Karte gerne auf 1000 Mbit eingestellt hätte?
Mal den Rechner neu starten! Jetzt war ich zumindest wieder bei meinen 100 Mbit. Offenbar hatte Ubuntu beim Start wieder die Grundwerte in die Karte geladen.

Egal was ich tat, ich bekam immer wieder dasselbe.

Jetzt kam ich noch auf das Netzwerkkabel, das Internet-Box und PC verbindet.

Vielleicht, so dachte ich, hätte ich letztens, beim Kabelverlegen, ein altes Netzwerkkabel erwischt. Also das kurz mal tauschen. Ja, „kurz“ war die richtige Umschreibung. Dann selbstverständlich war das andere Kabel 1/2 Meter zu kurz. Also die Gerätschaften einander angenähert, um den halben Meter zu gewinnen.
Das Ganze wieder hochgefahren …. und schon hatte ich …. erneut 100 Mbit Bandbreite.

Jetzt gingen mir tatsächlich die Möglichkeiten aus. Das Netzwerkkabel war meine letzte Option gewesen. Und ich hatte wohlweislich ein Kabel gewählt, dass ich innerhalb der letzten paar Monate von Vodafone bekommen hatte.

Da saß ich also, hatte einige Stunden in den Sand gesetzt, und wußte trotz aller Erfahrung nicht mehr weiter.

Wie ich da so saß, betrachtete ich meinen Pool an Netzwerkkabeln. Mir fiel auf, dass da ein Kabel war, das sich dicker darstellte, als die anderen, die ich da hatte. Gedanke: Vielleicht hatten die ja alle am Kabel gespart, und Kabel verwendet, die „überflüssige“ Adern erst gar nicht enthielten. Könnte ja sein, dass das dicke Kabel, alle Adern enthielt, und (so zeigte mir ein Blick (mit Brille) auf die Stecker, auch voll belegt war (soll heißen, ALLE Adern tatsächlich an den Steckern angeschlossen)).

Also kurz dieses Kabel

Netzwerkkabel

angeschlossen (natürlich war das nochmal ein Stück zu kurz, sprich Gerätschaften nochmals einander angenähert), Rechner hochgefahren, und schon hatte ich …. 1000 MBIT Bandbreite auf der Karte eingestellt.

Wie es nur immer sein konnte …. von all den Möglichkeiten, die es gab, war es die Letzte, die das Problem löste.

Ein simples Netzwerkkabel.

Selbstverständlich hatte ich kein Kabel, welches lang genug wäre, zur Verfügung, so dass ich mir flugs im Netz ein 5m Patchkabel bestellte, für 4,49 € inkl. Versand. Das wird dann in ein paar Tagen hier sein, und damit habe ich dann bleibend die knapp 200 Mbit Bandbreite, die über meinen Internetanschluss kommen, auch auf meinem PC zur Verfügung.

Künftig, wenn ich wieder mal ein ähnliches Problem habe, werde ich als Erstes das Netzwerkkabel ersetzen.
Aber es ist mit an Sicherheit grenzender Wahrscheinlichkeit davon auszugehen, dass auch dann die Möglichkeit die Lösung ist, die ich wiederum als Letztes versuche.

Es grüßt,
das Smamap

Das verbreitetste Betriebssystem ?

Welches ist das verbreitetste Betriebssystem ?

Betriebssystem
Spontan würdet Ihr sagen: Windows

Falsch !

Die richtige Antwort lautet: Linux 

Nun – Ihr würdet sagen, dass natürlich die Frage falsch formuliert war. Gemeint waren selbstverständlich private Endgeräte.

Hier wäre die Antwort dann sicherlich Windows

Falsch ! 

Die richtige Antwort hätte auch hier gelautet: Linux 

Wie kann das sein, würdet Ihr sagen?

Ganz einfach – der Bereich der mobilen Geräte wird zu 90% vom Betriebssystem Android beherrscht, und dieses basiert auf – Ihr habt es sicher schon erraten – Linux 

Und somit ist das verbreitetste Betriebssystem

LINUX

Man rechnet mit 1,5 Mrd. Geräten, die Android nutzen, also letztlich Linux. Aber Linux ist nicht nur dort anzutreffen. Man trifft es überall …. auf Privat-PCs, auf Bankautomaten, auf vielen Firmen-PCs, auf Servern usw. usf.

Auch wenn man im Internet unterwegs ist, kommuniziert man meist mit Linux-Rechnern, denn die meisten Internet-Server haben als Betriebssystem – man kann es sich denken – Linux. Und auch, wer sich mit seinem Router verbindet, kommuniziert mit Linux.

Der Grund dafür ist sehr häufig die Einfachheit des Betriebssystems. Da ist Windows einfach viel zu komlex, zu teuer und zu sehr lizenziert. Und nachdem die Linux-Betriebssysteme heute auch sehr ansprechende Bedienoberflächen haben, merkt man fast keinen Unterschied mehr, und vielen Nutzern ist es im Endeffekt egal, welches OS sie nutzen, Hauptsache einfach/elegant zu bedienen.

Microsoft hat hier, auf lange Sicht gesehen, die falsche Entscheidung getroffen, als es seinerzeit primär an seine Bilanzen und Gewinne dachte. Mittlerweile hat man auch dort schon erkannt, dass mit Betriebssystemen kein Apfel mehr zu gewinnen ist (außer man heißt „Apple“). Aber Scherz beiseite: MS verabschiedet sich nach und nach aus dem Bereich, und wendet sich anderen Themen zu. Denn schließlich will man wieder mit den größten Playern wie Google und Apple mithalten können.Und das könnte man nicht, wenn man sich auf ein Thema konzentriert, mit dem man immer mehr ins Hintertreffen gerät.

Die großen Player

haben sich frühzeitig darauf verlegt, Betriebssysteme als Beigabe zu Geräten zu sehen. Man kann zwar trefflich darüber streiten, welcher Anteil des Kaufpreises eines Smartphones das Betriebssystem betrifft, aber MS, so meine ich, ist seinerzeit, psychologisch, auf den falschen Zug aufgesprungen, als es sich dafür entschied, für das Betriebssystem Windows Extrageld zu kassieren. Hinterher ist man zwar immer schlauer, aber wenigstens kann man sich darum bemühen, es zu sein.
MS hat mit Windows10 dann etwas Halbherziges versucht, indem es das OS scheinbar kostenlos zur Verfügung stellte, um dann letztlich doch wieder zu kassieren.

Und so hat Microsofts CEO, Satya Nadella (nein, er heißt nicht mehr Bill Gates 😉 ), die Zeichen der Zeit schon lange erkannt und längst andere Themen in den Vordergrund geholt …. fast unbemerkt.
V.a. auch die Cloud ….

Es grüßt,
das Smamap

Songs aufnehmen ?

Seit meinem Umstieg auf Linux hatte ich immer im Hinterkopf, dass ich wieder die Möglichkeit realisieren wollte, Radio-Streams mitzuschneiden.

Bekanntlich ist es ja völlig legal, das zu tun.

Unter Windows hatte ich da ein riesen Programmpaket installiert, mit dem ich unendliche Möglichkeiten hatte irgendwelche Dinge aufzunehmen (von Filmen bis hin zu Musik; natürlich nur für mich privat, und ohne dass da ein Kopierschutz umgangen wurde; sprich – legal musste es sein).

Ich musste etwas suchen, um unter Ubuntu das zu finden, was ich wollte. Und selbstverständlich wollte ich nicht wieder ein Programmmonster auf meinem Rechner haben.

Die Lösung war letztlich ganz einfach:
Über das Ubuntu-Software-Center das Programm „Audacity“ installiert. Fertig.

Mit 7,2 MB war alles erledigt.

Zuerst wollte es nicht recht funktionieren. Ich startete auf antenne.de die Musikwiedergabe, startete Audacity, und klickte auf den Aufnahme-Button. Und es geschah – NICHTS.

GottSeiDank ist die User-Unterstützung für Ubuntu im Netz absolut klasse. Also kurz auf Google nachgelesen, und mitbekommen, dass man da, bei laufender Aufnahme, über die „PulseAudio-Lautstärkeregelung“ noch eine Einstellung vornehmen musste. Also in der Programmsuche (offiziel heißt das „Dash“) nach der PulseAudio-Lautstärkeregelung gesucht,

Bildschirmfoto vom 2016-03-14 12:34:45

mit Klick gestartet und auf der Registerkarte „Aufnahme“ umgestellt auf „Capture von ‚Monitor auf Interenes Audio Analog Stereo'“.

Das war’s – und schon sah ich bei Audacity die charakteristischen Ausschläge der Aufnahmeanzeige.

Der Rest ist eine bekannte Feinarbeit:
Also in Audacity die Songs im Aufnahmestream aussuchen, die man haben möchte, mit Einblendung/Ausblendung versehen und als MP3 exportieren. Fertig.

Genau das, was ich seit Jahren immer schon haben wollte. Und das Ganze rank und schlank.

Die Zeiten voluminöser Programm-Totschläger aus Windows-Zeiten gehören wohl auch endlich der Vergangenheit an.
Das äußert sich auch darin, dass ich früher eine Festplatte brauchte in der Größenordnung von etlichen hundert Gigabyte, um all die großen Programme und Daten unterzubringen. Unter Ubuntu benötige ich bisher, mit all dem, was ich früher auch hatte, 50 GB auf meiner 100 GB-Festplatte.
Das Ganze hat mich, sage und schreibe, 80 € gekostet. Den Rechner hatte ich gebraucht erworben (gut – ich kenne mich aus, und weiß, was nehmen), der Bildschirm war schon da, das Betriebssystem ist kostenlos.

PC-Herz, was willst du mehr.

Es grüßt,
das Smamap

 

Linux – das bessere Windows?

Bei der Leerung meiner letzten Umzugskartons bin ich auf das Buch „Nickles Linux Report“ aus dem Jahr 2007 gestoßen.

Und habe heute zu lesen angefangen.

Einmal um so einige grundlegende Dinge für mich zu erarbeiten (Manches ist echt wissenswert), und zum anderen, um zu sehen, was sich innerhalb von fast 10 Jahren getan hat.

Und es hat sich so einiges getan: Vieles von dem, was vor knapp 10 Jahren noch Hürden waren, ist heute fast vollständig beseitigt. Frei nach dem Motto „DVD einlegen, installieren und gut is“.

Mancher Hintergrund ist gleichfalls sehr interessant.
So steht da z.B. auf Seite 23 (ich hoffe der Verlag sieht mir dieses Zitat nach):“Open Source ist viel mehr als kostenlos! Es gab vor langer Zeit mal eine kleine Softwareklitsche, deren Boss eine saucoole Idee hatte. Er hat alles, was er gemacht hat, einfach verschenkt. Und zwar raffiniert verschenkt!
Es gab weltweit viele PC-Anbieter, die ihre Rechner einfach mit Raubkopien des „Verschenkers“ bespielt haben, große Office-Softwarepakete gratis zum Lieferumfang beipackten. Der wusste das genau, hat aber beide Augen zugedrückt. Aus einem simplen Grund: damit sich die Menschen an seine Software gewöhnen.
Und als genug Menschen verseucht waren, alle Konkurrenten, die nix verschenkt haben, pleite waren, da her er mit dem Hammer auf „Raubkopierer“ draufgehauen und seine Geldmaschine angeworfen. Eine Textverarbeitung wie „Microsoft Word“ oder ein Betriebssystem wie „Microsoft Windows“ kostet heute richtig fett Kohle.
Wer Menschen an was gewöhnt hat, der hat sie unter Kontrolle. Denn er allein entscheidet, wann er schenkt, und wann er dann kassiert. Etwas, das heute kostenlos ist, kann morgen also schon elend teuer sein!
Open Source ist Zeugs, das nicht nur kostenlos ist, sonder VOLLSTÄNDIG bis ins letzte Detail offen gelegt und frei verfügbar. Jeder Mensch darf damit fast alles machen, was er will, es nach Belieben verändern. Aber alles, was jemand an Open Source verändert, muss weiterhin als Open Source weitergegeben werden. So was wie erst verschenken, dann Hahn abdrehen und kassieren, funktioniert da nicht.
Und genau das ist die Idee von Linux.“

Das, was dem Bill Gates da als „Geschäftidee“ eingefallen war, war schon genial. Das muss man ihm lassen.
Aber es gibt eben immer 2 Seiten einer Medaille. Die andere Seite ist die, dass man einer solchen „Geschäftsidee“ auf Gedeih und Verderb ausgeliefert ist, wenn man mit dieser Idee marktbeherrschend geworden ist.

Man kann froh sein, dass es heute noch eine Konkurrenten gibt, namens „Linux“, der eine wirkliche Alternative bietet.

Nun ist selbstverständlich auch bei Linux nicht alles „Gold, was glänzt“. Da gibt’s so einige Entwicklungen, die nicht wirklich „das Gelbe vom Ei“ sind. Linux hat v.a. damit zu kämpfen, dass es von Unix abstammt, und immer noch das Bild im Hintergrund hat, eines Betriebssystems, das unheimlich schwierig in der Handhabung ist.

Früher war das auch bei Microsoft nicht anders. Es gab nur MS-DOS, also nur die Möglichkeit auf dem Bildschirm unverständliche Kommandozeilen einzugeben, die der Rest der Bevölkerung nicht verstand. Vereinfacht gesagt, war UNIX nichts anderes. Auch dort unverständliche Kommandos auf dem Bildschirm
Ich habe zu dieser Zeit mit der Computerei beruflich angefangen, und war stolz darauf, was ich mit meinen MS-DOS-Kenntnissen alles bewirken konnte.

Und dann kam Microsoft mit Windows. Und endlich konnte jeder Dateien kopieren, ohne Kommandozeilen kennen zu müssen.

MS hatte den Vorteil, früher dran zu sein (it’s the early bird, that catches the worm).

Und dann hatte der gute Bill noch o.g. „Geschäftsidee“. Und diesen Vorsprung hat Linux bis heute nicht aufgeholt.

Die Linux-Leute haben sich dann noch das eine oder andere Eigentor geschossen, was die Sache nicht grade erleichtert hat.

Einen Vorteil hatte der Vorsprung von MS aber dann doch: Linux konnte aus den Fehlern von MS lernen, und setzte auf ein Konzept, das z.B. dazu führte, dass Viren für Linux nahezu keine Thema sind.

Und heute würde ich meinen, ist Gleichstand erreicht. In beiden Welten ist eine anspruchsvolle graphische Benutzeroberfläche vorhanden, für den OttoNormalverbraucher. Den einzigen Vorteil, den MS noch hat, ist der, dass der Hersteller, eben wegen der o.g. „Geschäftsidee“ immer noch sehr viel Macht im Markt hat. Teilweise durch sehr langjährige Verträge.
Bestes Beispiel sind die Geldautomaten der Banken. Bis vor Kurzem liefen diese zu 95% mit Windows XP. MS hatte es verstanden, die Hersteller mit weiterem Support zu binden, als XP offiziell eingestellt wurde. Das Ende vom Lied war, dass die Automatenhersteller nach und nach auf Windows 10 umsteigen werden, und somit dieser Markt für MS weiterhin ein riesen Geschäft ist. Welches Betriebssystem letztlich auf den Automaten läuft wäre grundsätzlich egal, aber wer einmal den Fuß in den Tür hat, wird versuchen, ihn auch dort zu behalten.

Was die meisten nicht wissen, ist, dass nahezu jeder jeden Tag mit Linux arbeitet. Denn (fast) alle Server im Internet basieren auf Linux. Man sieht daran, dass das System das hinter der graphischen Oberfläche läuft, nicht so sehr von Bedeutung ist. Hauptsache der Anwender kann klicken, und der Klick führt genau den Befehl aus, der im Hintergrund ausgeführt werden muss.

Was lehrt uns das alles?
Vielleicht das Eine, nämlich dass das, was am Markt vorherrscht nicht unbedingt das ist, was besser ist.

Es gibt genügend Beispiele aus der Vergangenheit, wo Geld darüber entschied, was sich zunächst durchsetzte.

Es grüßt,
das Smamap

 

PC – Marke „antik“ – ein Bericht

Hab gestern mal einen Versuch gestartet.

Will heißen, ich wollte mal rausfinden, was man mit einem antiken PC noch machen kann.

Hatte also einen uralten Pentium 3 hier, einen Rechner mit einem 900 MHZ Prozessor, und 512 MB Speicher. Das Ganze wohl ca. 20 Jahre alt.

2016-02-28 18.38.29

Also was tun damit?

Irgendein Windows installieren konnte ich vergessen.
Windows XP, was noch gegangen wäre, wird seit längerem nicht mehr unterstützt, gibt also schon lange keine Sicherheitsupdates mehr dafür, und ins Netz gehen soll ja doch möglich sein.
An neuere Windosen ist gar nicht zu denken. Da hat Microsoft frühzeitig alle Möglichkeiten blockiert.

Also ein Versuch mit Linux!

Kurz nachgesehen, was Ubuntu an Systemressourcen fordert: Als da wären 700 MHZ und 512 MB, als Minimalanforderung.

Hatte hier noch etwas Speicher liegen und so rüstete ich den Altrechner auf 1 GB Speicher auf ….. sollte also gehen ….. frisch an’s Werk

Die Installation lief, zog sich aber merklich. Auf meinem Core Duo Rechner war Ubuntu in 20 Min. installiert gewesen. Auf dem Antik-PC dauerte es eine gefühlte Stunde.

Es scheiterte dann aber zunächst schon mal daran, dass die Einblendung am Schluss der Installation nicht kam, man solle doch jetzt die DVD aus dem Rechner nehmen und mit ENTER bestätigen.
Der Bildschirm blieb nämlich schwarz.

Also PC hard resetet, DVD entfernt und gewartet ……..
5 Minuten später war die Oberfläche da

Kurz gesagt …. an ein Arbeiten war nicht zu denken. Jede Aktion erforderte Gedult, in Form einer Ubuntu-Gedächnisminute. Also ein Arbeiten mit Ubuntu, auch mit etwas mehr als den Minimalanforderungen schien unmöglich.

Da erinnerte ich mich an die Installations-DVD, die ich kürzlich (warum auch immer) für Lubuntu gebrannte hatte. Lubuntu ist auch nichts anderes als Ubuntu, halt nur mit einer anderen graphischen Oberfläche (deshalb das „L“ davor). Und Lubuntu benötigt weniger Systemressourcen.

Rechner mit Lubuntu installiert, und läuft. Es ist ein flüssiges Arbeiten möglich.

Lubuntu soll angeblich schon mit 128 MB RAM und 350 MHZ laufen. Aber es kann wohl niemandem empfohlen werden, sowas zu machen. Aber mit 900 MHZ und 1 GB Arbeitsspeicher läuft es doch schon realtiv flott. Lichtgeschwindigkeit darf man natürlich nicht erwarten.

Und so habe ich also jetzt hier einen Uraltrechner stehen, der halt einfach läuft. Ich werde ihn wohl als kleinen Server einsetzen, für welche Zwecke auch immer.

Wer also noch was Altes rumstehen hat … nicht wegwerfen, weil Microsoft es sagt …..

Es grüßt,
das Smamap

 

Per Stick starten

Da wollte ich das gestern endlich mal realisieren, meinen PC vom Stick zu starten.

Wenn, aus welchen Gründen auch immer, das Betriebssystem nicht mehr von der Festplatte losstarten will, dann bleibt ja immer die Frage, wie auf die Daten zugreifen. Und sei es nur auf die eMail vom Chef oder vom Vermieter, oder auf ein paar Telefonnummern etc etc.

Gut – normalerweise kann man immer noch von DVD starten. Am Einfachsten fällt das noch unter Linux, weil die Installations-DVD in aller Regel immer gleichzeitig auch eine Live-DVD ist, sprich ich kann meinen Rechner damit starten, und habe dann ein komplett laufendes System vor mir am Bildschirm, so wie ich das auch von der Festplatte kenne.
Mit Windows fällt das schon etwas schwerer, weil mit „Live“ is da nix, da kommt man dann allenfalls in eine Art Reparaturmodus, wenn man von der Installations-DVD startet.

Was aber, wenn die DVD nicht funktioniert (mal auf der Heizung liegen gelassen oder der Kulli fiel drauf) oder aber das System gar kein DVD-Laufwerk mehr hat?
Dann würde es schon Sinn machen, so einen Stick zur Hand zu haben.

Ich hatte noch einen übrig nämlich …….

2016-01-29 08.38.55

Unter Ubuntu 14.04 ist das ganz einfach: Man lädt sich ein Ubuntu-Image runter (am besten das mit 1 GB Größe; z.B. HIER) und erstellt mit dem „Startmedienersteller“ der schon auf dem Rechner mit drauf ist, den Stick. In dieser Software wählt man im oberen Bereich das heruntergeladene Image aus, im unteren Bereich den Stick.

 

 

Bildschirmfoto vom 2016-01-29 08:29:32

Dann sind nur noch 3 Klicks notwendig: Zum einen den (Stick)Datenträger löschen, danach darunter per Klick einen „reservierten Extrabereich“ wählen (das ist ein zusätzlicher Bereich auf dem Stick, auf dem auch Daten gespeichert werden können), und zum Schluss noch ein Klick auf „Startmedium erstellen“.
Das war’s dann schon. Jetzt nur noch etwas Zeit mitbringen (ev. bei einer Tasse Tee), und den Rechner seine Arbeit tun lassen.Mittendrin muss man dann mal sein Passwort eingeben, weil der Bootloader auf den Stick gespielt werden soll, was mittels Berechtigung bestätigt werden muss.

Was hinterher noch bleibt, ist der erste Versuch, den PC vom Stick zu starten.

Bei mir ging das ohne Probs. Ich musste nur aus dem Boot-Menü des PCs den Stick als Startmedium wählen (in das Boot-Menü gelangte ich per ESC-Taste beim Hochfahren des Rechners; das ist aber u.U. bei jedem Hersteller etwas anders, und wird in aller Regel beim Hochfahren am Bildschirm angezeigt, welche Taste das ist).

Noch ein paar wenige Anmerkungen:
Man sollte in aller Regel jenes Ubuntu auswählen, welches man auch auf dem PC installiert hat. Ich hatte trotzdem die aktuellere Version 15.10 mir vom Netz geholt, weil ich damit dann schon mal sehen wollte, was neu ist bei der Version. Prompt ging es schief, weil offenbar das Image ein Modul enthielt, welches für meinen 64-Bit-Rechner nicht geeignet war.
Zum anderen unbedingt berücksichtigen, die Daten, die sich bisher auf dem Stick befanden, zu sichern, falls da was dabei ist, was von Bedeutung wäre.Was oben genannten „Extrabereich“ angeht, so ist das zu empfehlen, weil es doch was geben könnte, was man selber speichern will oder aber das System etwas speichern will (z.B. Tastaturlayout), und das soll ja nach dem nächsten Start vom Stick dann auch zur Verfügung stehen. Ich hatte auf meinem 4 GB Stick dafür 1 GB gewählt. Das Image selbst machte ja auch 1 GB aus, so dass auf dem Stick noch 2 GB zur Verfügung stehen für i-welche anderen Zwecke.
Und schließlich sollte nicht unerwähnt bleiben, dass der PC, sprich das BIOS auch so eingestellt sein muss, dass ein Start vom Stick überhaupt möglich ist. In aller Regel sollte das der Fall sein, ansonsten muss man eben im BIOS nachsehen, dass die entsprechende Option auch eingeschalten ist. Bei mir ging es auf Anhieb.

Das Ganze gibt es unter Windows auch, allerdings scheint da die Vorgehensweise nicht ganz so einfach, aber diverse Anleitungen im Netz, sollten da weiterhelfen. Nachdem ich kein Windows mehr nutze, habe ich mich damit allerdings nicht mehr auseinander gesetzt.

Es grüßt,
das Smamap

Durch die Hintertüre ……

Seit Kurzem ist ja jetzt Linux mein OS der Wahl.

Und, so im Nachhinein betrachtet, hat mir, und nicht nur mir, Microsoft im Lauf der letzten Jahre, so nach und nach „das Kraut ausgeschüttet“.

Immer wieder haben sie es verstanden, die Anwender „vor den Kopf zu schlagen“. Und i-wann bringt sowas halt das Fass zum Überlaufen.

Also mache ich jetzt in Ubuntu 🙂 🙂 🙂

Aber so ganz kann ich die Finger noch nicht von Windows lassen. Also habe ich mir VirtualBox auf Ubuntu installiert, einfach gesagt eine Software, die einen Container in Ubuntu einrichtet, in dem dann z.B. Windows7 laufen kann. Völlig unabhängig vom Wirts-System (also Ubuntu).
Ich musste das deshalb machen, weil ich noch 2 Programme habe, die nicht unter Linux laufen.

Alles in allem fühle ich mich schon sehr heimisch auf Ubuntu. Es ist vom Feeling und von der Verfahrensweise her, nicht sehr viel anders, als das, was ich bisher gewohnt war. Eine graphische Benutzeroberfläche ist überall in etwas dasselbe.

Und so ganz nebenbei lerne ich auch.
So habe ich früher nie begriffen, was eine erweiterte Partition ist. Ubuntu hat mir da jetzt zu einem Verständnis verholfen (zwar nur indirekt, weil das wär auch in anderem Zusammenhang wohl so gekommen, aber der Umstieg führte eben dazu).
Und man glaubt es nicht, aber VirtualBox hatte ich früher schon ein paar Mal installiert, damals halt noch unter Windows, und ich brachte es nie zustande die „Guest-Additions“ so zu installieren, dass das auch funktionierte. Jetzt unter Ubuntu, läuft das. Da kann zwar auch Ubuntu nix dafür, dass ich auf ein YouTube-Video gestoßen bin, dass das für Ubuntu SO erklärte, dass es lief, aber mal sehen, was sonst noch so alles sich klärt, im Zusammenhang mit dem Ubuntu-Umstieg.

Was mich ziemlich fasziniert, ist die Art und Weise, wie man sehr einfach über ein Terminal (ganz früher hätte man DOS-Ebene gesagt), Vieles bewerkstelligen kann, ohne großartige graphische Benutzeroberflächen installieren zu müssen. Da winkt vermutlich meine Anfangszeit hinter den Bäumen hervor, als ich zu Beginn, sowohl privat als auch beruflich im PC-Bereich mit MS-DOS zugange war (von Windows sprach damals noch lange niemand).

Und diese Terminal-Funktionen vertiefen das Verständnis von dem, was da wirklich abläuft. Denn ein Programm installieren, in dem man einen Klick nach dem anderen mit der Maus ausführt, das kann jeder, ohne wirklich eine Ahnung davon zu haben, wie das alles funktioniert. Und das ist z.T. heute auch das Problem: Die Leute klicken da rum, egal unter welchem OS, und vertrauen auf die Unfehlbarkeit der Software, eben WEIL sie keine Vorstellung davon haben, was das Alles eig tut.

Genug der OS-Philosophie.

Ich denke, ich bin angekommen.

Lange genug hat es ja gedauert.

Es grüßt,
das Smamap

Windowsfreies Gebiet !!!

Jetzt ist es soweit gekommen …..

Ich habe keinerlei Windows mehr auf meinem Rechner.

Bis zuletzt war Windows10 noch am Laufen. Dann geschah es, dass das Windows nicht mehr zu starten war.
Nun denn, dachte ich mir, Microsoft hatte ja versprochen, dass man als Windows-Insider, der jetzt 2 Jahre lang das neue Betriebssystem getestet hatte, dieses Windows10 weiterhin kostenlos auf seinem PC nutzen dürfe.

Also W10 flugs neu installiert, nur um dann festzustellen, dass es nicht mehr zu aktivieren war. Eingehende Gespräche mit der Hotline führten zu dem Ergebnis, dass es auch für einen Insider nur möglich ist, das W10 wieder zu aktivieren, wenn zuvor ein Windows7 installiert gewesen sei, um davon ausgehend, das Windows10 wieder kostenlos upzugraden. Wenn man dann hört, dass das halt anderswo so entschieden worden sei,  dann reicht es einem.

Nicht nur, dass das den Versprechungen, die da getätigt wurden, nicht genügt, ich hätte mir jetzt, um den bisherigen Zustand wiederherzustellen, eine Windows7-Lizenz kaufen dürfen.

Nicht mit mir, liebe Herrschaften aus Redmond. Wenn ein gegebenes Wort nichts mehr gilt, dann könnt ihr das machen, mit wem ihr wollt.

Und so läuft jetzt Ubuntu, mit allem was ich brauche, und gut is.

Es grüßt,
das Smamap

Hurra – es funktioniert

Ich habe es selbst hingebogen bekommen, dass mein eBook-Reader auch unter Ubuntu-Linux Verbindung zum PC hat.
Hüpfe hier jetzt mal im Sechseck 🙂 🙂 🙂

Das ist gar nicht so einfach, weil zum einen Adobe-Digital-Editions nur für Windows existiert, und zum anderen das zwar über das altbekannte WINE unter Linux läuft, was aber noch lange nicht heißt, dass der Reader dann auch erkannt wird.

Aber wer lesen kann, ist klar im Vorteil, und Tante Google hilft einem da schon weiter.

Und wenn man dann nicht, so wie ich, die Authorisierungsdaten bei Adobe vergessen hat, dann geht es fast wie von selbst.

Bei der Gelegenheit habe ich mal gesehen, dass ich mittlerweile schon eine ganz hübsche Sammlung an Büchern auf meinem Reader habe.
Ich weiß !!!! Nix im Vergleich zu wirklichen Büchern. Doch andererseits habe ich immer alle Bücher griffbereit, in einem kleinen Teil mit 17 x 12,5 x 1 cm. Und ich kann das alles lesen, ohne Brille.
Wenn mir vor 20 Jahren einer gesagt hätte, ich würde mal 50 Bücher mit mir rumtragen, nicht mal so groß wie ein DIN-A5 Block und nicht schwerer wie 300 Gramm, dem hätte ich einen Vogel gezeigt.

Da frage ich mich, warum unsere Kinder eig immer noch diese irre schweren Schultaschen mit sich rumschleppen müssen?

Wie auch immer: Bevor ich jetzt den Tag beende, werde ich nochmal meine Windows-Partition booten, und ADE deinstallieren. Wieder ein Schritt weg von Windows.

Es grüßt,
das Smamap

Schlafen gehen

Nachdem ich so nach und nach bei Linux heimisch werde, zumindest mit dem, was ich so am PC mache, versuche ich auch nach und nach die Kleinigkeiten zu regeln.

Was dabei heute anstand, war die Realisierung des Standby. Genauer gesagt des S3, also STR, sprich SuspendToRam, auf deutsch, das Schreiben des Systems in den Arbeitsspeicher, um den Rechner danach in den Stromsparmodus zu versetzen, so dass quasi nur noch der Arbeitsspeicher mit Strom versorgt wird, und alles andere abgeschalten ist, was natürlich den Stromverbrauch enorm absenkt, im Vergleich zu der Situation, wenn der PC stundenlang so nebenherläuft, weil man ja „GLEICH“ wieder zurückkommt.

Das hatte ich unter Windows mir schon so eingerichtet, und wollte das jetzt unter Linux auch so haben.

Linux hat dazu auf der graphischen Oberfläche die Funktion „Bereitschaft“ auswählbar.

Das Dumme bei mir war nur, dass der PC nach dem Schlafen gehen sofort wieder hochfuhr.
Ich kannte das von Windows. Dort musste man in den Geräteeinstellungen bei der Maus die Funktion abschalten, die es der Maus ermöglicht, den PC wieder aus diesem Energiesparmodus aufzuwecken.

NUR – wo das finden unter Linux?

Nach einigem vergeblichen Suchen kam ich auf die gloreiche Idee, mal Tante Google zu befragen.
Tante Google offenbarte mir, dass es notwendig sei, die entsprechenden Geräte (Devices) in der Konfigurationsdatei /prog/acpi/wakeup auf disabled zu setzen.
Gesagt – getan, und schon ging der PC in Bereitschaft, und blieb auch dort (sprich, der Powerbutton blinkte brav vor sich hin, so wie ich das kannte).

Doch zu früh gefreut. Nach dem nächsten Boot des PCs stellte sich heraus, dass die Sache nur von einmaligem Nutzen war, und sich die Einstellungen in besagter Datei wieder auf Ursprung zurückgestellt hatten. Hätte ich Tante Google bis zu Ende gelesen, so wäre mich klar geworden, dass Änderungen in besagter Datei nur temporär wirken. Es gäbe aber die Möglichkeit, in einer Datei names /etc/rc.local zu bewirken, dass diese Änderungen anläßlich eines jeden Boots erfolgen.

Das dort eingetragen, und schon lief es dauerhaft (als Nächstes muss ich nur noch lernen, wo man einstellt, dass der PC nach einer gewissen Zeit von selbst auf S3 geht).

Unter Linux muss man sich zwar daran gewöhnen, dass so manche Einstellungen über Konfigurationsdateien manuell gemacht werden müssen, aber das ist nur Gewöhnungssache. Unter Windows war ich auch oft genug am Suchen, wo sich welche Einstellung in der graphischen Benutzeroberfläche wohl verstecken mag.
Es gibt sicherlich noch andere Argumente. Aber es hat durchaus etwas Logisches und Vereinfachendes, wenn man weiß, dass sich Einstellungen zu einem bestimmten Thema immer in einer bekannten Konfigurationsdatei finden lassen, die man ganz einfach mit einem Texteditor editieren kann.
So weiß ich, dass ich Einstellungen zu meinen Netzwerkverbindungen in der Datei interfaces im Verzeichnis /etc/network finde.
Zu so manchen Dingen wurde im Lauf der Zeit auch eine graphische Benutzeroberfläche geschaffen, so dass diejenigen, die nicht OHNE auskommen, durchaus die Möglichkeit haben.

Happy computing,
das Smamap