Kaptnkek
Profi
Thread Starter
- Mitglied seit
- 20.03.2022
- Beiträge
- 300
- Desktop System
- Monolith
- Details zu meinem Desktop
- Prozessor
- Intel i5 13600K
- Mainboard
- MSI z790 Pro Wifi P
- Kühler
- Aquacomputer cuplex kryos NEXT / Mora 420 / 2x 360 mm Radiator/ Ultitube D5 NEXT Pro 200 mm
- Speicher
- 2x 16 Gb Corsair Vengence DDR5 5600 CL36
- Grafikprozessor
- Rx 6900 XT Reference @ Watercooling Alphacool Aurora Acryl
- Display
- Corsair Xeneon 32QHD165 ( 32" , IPS , 1440p 165hz ) + 2 x HP Compaq LA2206xc ( 22 " 1080p)
- SSD
- 1x M2 500 gb 1x SSD 500 gb
- Soundkarte
- Fiio K5 Pro ESS
- Gehäuse
- Lian Li o11 Dynamic Evo
- Netzteil
- Corsair RMx 850
- Keyboard
- Corsair K100
- Mouse
- Corsair Ironclaw
- Betriebssystem
- Win 11
- Webbrowser
- Opera GX
- Sonstiges
- Bayerdynamic Dt 1770 Pro / NobleChair Hero Vaulttec Edition
- Internet
- ▼200 Mbit ▲50 Mbit
Einen Wundervollen Sonntag Morgen in die Gemeinde
Ich Melde mich Heute bei euch weil ich euch gerne mein neuestes Projekt vorstellen möchte : Lutum Veritas Research.
Dabei Handelt es sich um ein Open Source Tauri/python Programm welches es ermöglicht Tiefe Recherchen durch zu führen. Dabei gibt es einen Normalen Modus , sowie einen Akademischen.
Beide Varianten Liefern einen deutlich besser strukturierten und Detaillierteren Bericht als die üblichen Tools am markt von Open ai , Google , Perplexity und co.
Das Problem :
Wir Leben in einer Schnell Lebenden Gesellschaft in dem der Wert von Wissen und Wahrheit exponentiell mit unseren Technologischen Fortschritt skaliert.
Und insbesondere in Zeiten von KI und Fake Culture gewinnt Autonom Generiertes und faktisch gesichertes wissen immer mehr an Bedeutung.
Gleichzeitig sind wir alle dem stress der " effektivität" und "produktivität" ausgesetzt. Wer hat noch die Zeit eine echte tiefgehende Resersche zu betreiben? Informationen zu suchen und zu Validieren oder fakten zu schaffen? So gut wie keiner.
Und genau deswegen nutzen Menschen Deep Research Engines. Google , Open AI , Perplexity und co bieten schnelle und " einfache" wege tiefere suchen effektiv und schnell durch zu führen.
Aber Werden die dabei den ansprüchen dessen gerecht was wir wirklich brauchen? Ich denke nicht. Und hier sind die gründe :
1) Falsche oder Halluzinierte Citationen Und quellen. Tools wie zb Perplexity werfen mit schön klingenden Ellen langen Quellen Listen um sich - und wenn du sie dann Klicken willst stellst du fest sie existieren zt nicht oder sind inhaltlich inkorrekt
2) Die falsche Sicherheit Hochwertiger suchen und das "kosten Throttling" Alle anbieter werfen hier mit großen versprechen um sich doch im hintergrund werden quellen " gecuttet" oder schlechtere Modelle verwendet. Erst mit wirklich Teuren Abbos erhält man die volle Power.
3) Funktionale Halluzinationen. Insgesondere Open AI Deep Research generiert immeer wieder falsche tatsachen in sofern als das es denkt es könnte bestimmte dinge tun zb dinge generieren und tools nutzen. Das schafft kein vertrauen und verunsichert user.
4) Das gatekeeping der Wahrheit. Auf der einen seite werden also " abbo " zwänge geschaffen und auf der anderen zusätzlich dazu auch noch inhaltliche zensur , oder Zensur bei den quellen geschaffen. Eine echte ergebniss offene suche sieht anders aus.
5) Mangelnde Transparenz der Methodik , Quellen nutung und verarbeitung. Schön und gut das es nach außen toll aussieht aber was wirklich passiert weiss kein Mensch. Yet another Blackbox.
kurz gesagt : Heutige Deep Research tools sind keineswegs perse schlecht. Und füllen eine lücke aber sie sind gleichzeitig weiter weg von dem was menschen sich als reserschetool wünschen.
Projekt Lutum Veritas Research - Weil Wissen nicht hinter Abbos und Paywalls stecken sollte
Aber dann gibt es ja immer wieder Menschen wie mich die als Solo Entwickler da sitzen und sich denken "Das reicht mir nicht" und einer davon bin ich. Martin. Aus Deutschland. 37 Jahre alt. Stur. Autodidakt. Quereinsteiger in die IT.
Und genau so ging es mir : Ich will jetzt meine eigene Software. Und ich will sie Open source Publishen weil Wahrheit nicht hinter Paywalls stecken darf.
Und mir war von Anfang an klar welche Kerngedanken meine Software vertreten soll :
- Keine Abbos , Keine Paywall - Bring your own Key , pay only usage. Done. Ohne wenn und aber
- Einen Quellen Scraper und such mechanismus der seinen Namen wert ist und mir nicht nur das holt was in KI generierten SEO dossiers steht sondern den SCHMUTZ aus dem internet holt und die ESSENZ. Deswegen Lutum Veritas - Die wahrheit aus dem schmutz holen.
- Keine Zensur. Such was du willst. Und finde Antworten. Ohne Permission oder Compliance regeln
- Open source und so deterministisch wie es geht - Transparenz by Design.
- Aber vor allen : Tiefere , detailliertere Suchen mit Ergebnissen die deutlich über das hinaus gehen was der markt bis dato hergibt.
Die Pipelines :
Akademisch :
Die Selbst Kritik
Ich behaupte NICHT das meine Software perfekt ist. Das ist sie nicht. Ich behaupte auch nicht das sie in Jeder Disziplin jedes X beliebige tool weltweit schlägt.
Aber ich behaupte folgendes : Ich habe ein Stand Alone BYOK Open Source Deep Research Tool gebaut das suchen für einen Bruchteil der kosten von regulären Abo oder API Deep Researchers leistet.
Das signifikant tiefere und detailliertere Analysen bietet als jedes andere Tool. Das neben eine regulären Modus einen " Akademischen Deep Research Modus" hat welches Analyse berichte in einer bisher ungekannten tiefe und Evidenz liefert und gerne mal +200.000 Zeichen erreicht. Und ich behaupte das es dadurch , und durch die Art der Kontext Weitergabe die ich implementiert habe deutlich mehr " kausale zusammenhänge erkennt" als die Big Player Tools am markt.
Aber es ist auch klar :
Es wird Bugs geben. Es wird Sachen geben die noch nicht perfekt funktionieren. Aber ich bin dran und entwickle es stetig weiter. Insbesondere wenn man Solo an Programmen Arbeitet ist es unheimlich schwer alle Edge Cases ab zu decken und für jedes Problem im voraus das Passende Error Handling ein zu Bauen.
Es Gilt aber auch : Entwicklung braucht Tester und Feedback. Und hier kommt ihr ins spiel. Ich lade jeden Entwickler , Forscher oder einfach nur interessierten ein : testet die Software. Challenged sie. Challanged mich. Damit ich das bestmögliche daraus machen kann - einerseits um meinen eigenen Anspruch zu genügen , aber auch um der Welt ein Tool zur Verfügung zu stellen das wirklich leistet was es verspricht.
Damit es nochmal sehr Deutlich erwähnt wurde : Es Handelt sich um ein Open Source Projekt mit einer AGPL 3.0 Lizenz. Weder wird an der Software Geld verdient , Noch Befinden sich Ads in ihr oder Referal Systeme. Es ist ein 100%iges Community Projekt das ich der Welt zur Verfügung stelle. Die einzigen Kosten die entstehen sind jene die ihr Pro Research mit euren eigenen API Key Zahlt.
Die Kosten Pro Deep Research liegen mit dem Empfohlenen vor eingestellten Modellen über Openrouter bei 5-10 Cent Pro Research. Solltet ihr Leistungsfähigere Modelle Nutzen Steigen die Kosten entsprechend.
Hier ist das Repo: https://github.com/IamLumae/Project-Lutum-Veritas
Seit dem Launch am Freitag (also in ~48 Stunden) hat das Projekt 16 Stars, 3 Forks, 215 Clones und Traffic von Hacker News, latent.space und deeplearning.ai erreicht – worauf ich sehr stolz bin. Ich freue mich über weitere Tester und Feedback, gerne auch über Stars oder Forks auf GitHub. Lasst mich wissen was gut läuft und was noch verbessert werden muss!
Meine Letzten worte ? Nennt mich gerne Narzisstisch. Das ist mein Antrieb aber ich behaupte :
Die Messlatte für Deep Research Software Liegt ab heute ein kleines Stück Höher.
Ich Melde mich Heute bei euch weil ich euch gerne mein neuestes Projekt vorstellen möchte : Lutum Veritas Research.
Dabei Handelt es sich um ein Open Source Tauri/python Programm welches es ermöglicht Tiefe Recherchen durch zu führen. Dabei gibt es einen Normalen Modus , sowie einen Akademischen.
Beide Varianten Liefern einen deutlich besser strukturierten und Detaillierteren Bericht als die üblichen Tools am markt von Open ai , Google , Perplexity und co.
Das Problem :
Wir Leben in einer Schnell Lebenden Gesellschaft in dem der Wert von Wissen und Wahrheit exponentiell mit unseren Technologischen Fortschritt skaliert.
Und insbesondere in Zeiten von KI und Fake Culture gewinnt Autonom Generiertes und faktisch gesichertes wissen immer mehr an Bedeutung.
Gleichzeitig sind wir alle dem stress der " effektivität" und "produktivität" ausgesetzt. Wer hat noch die Zeit eine echte tiefgehende Resersche zu betreiben? Informationen zu suchen und zu Validieren oder fakten zu schaffen? So gut wie keiner.
Und genau deswegen nutzen Menschen Deep Research Engines. Google , Open AI , Perplexity und co bieten schnelle und " einfache" wege tiefere suchen effektiv und schnell durch zu führen.
Aber Werden die dabei den ansprüchen dessen gerecht was wir wirklich brauchen? Ich denke nicht. Und hier sind die gründe :
1) Falsche oder Halluzinierte Citationen Und quellen. Tools wie zb Perplexity werfen mit schön klingenden Ellen langen Quellen Listen um sich - und wenn du sie dann Klicken willst stellst du fest sie existieren zt nicht oder sind inhaltlich inkorrekt
2) Die falsche Sicherheit Hochwertiger suchen und das "kosten Throttling" Alle anbieter werfen hier mit großen versprechen um sich doch im hintergrund werden quellen " gecuttet" oder schlechtere Modelle verwendet. Erst mit wirklich Teuren Abbos erhält man die volle Power.
3) Funktionale Halluzinationen. Insgesondere Open AI Deep Research generiert immeer wieder falsche tatsachen in sofern als das es denkt es könnte bestimmte dinge tun zb dinge generieren und tools nutzen. Das schafft kein vertrauen und verunsichert user.
4) Das gatekeeping der Wahrheit. Auf der einen seite werden also " abbo " zwänge geschaffen und auf der anderen zusätzlich dazu auch noch inhaltliche zensur , oder Zensur bei den quellen geschaffen. Eine echte ergebniss offene suche sieht anders aus.
5) Mangelnde Transparenz der Methodik , Quellen nutung und verarbeitung. Schön und gut das es nach außen toll aussieht aber was wirklich passiert weiss kein Mensch. Yet another Blackbox.
kurz gesagt : Heutige Deep Research tools sind keineswegs perse schlecht. Und füllen eine lücke aber sie sind gleichzeitig weiter weg von dem was menschen sich als reserschetool wünschen.
Projekt Lutum Veritas Research - Weil Wissen nicht hinter Abbos und Paywalls stecken sollte
Aber dann gibt es ja immer wieder Menschen wie mich die als Solo Entwickler da sitzen und sich denken "Das reicht mir nicht" und einer davon bin ich. Martin. Aus Deutschland. 37 Jahre alt. Stur. Autodidakt. Quereinsteiger in die IT.
Und genau so ging es mir : Ich will jetzt meine eigene Software. Und ich will sie Open source Publishen weil Wahrheit nicht hinter Paywalls stecken darf.
Und mir war von Anfang an klar welche Kerngedanken meine Software vertreten soll :
- Keine Abbos , Keine Paywall - Bring your own Key , pay only usage. Done. Ohne wenn und aber
- Einen Quellen Scraper und such mechanismus der seinen Namen wert ist und mir nicht nur das holt was in KI generierten SEO dossiers steht sondern den SCHMUTZ aus dem internet holt und die ESSENZ. Deswegen Lutum Veritas - Die wahrheit aus dem schmutz holen.
- Keine Zensur. Such was du willst. Und finde Antworten. Ohne Permission oder Compliance regeln
- Open source und so deterministisch wie es geht - Transparenz by Design.
- Aber vor allen : Tiefere , detailliertere Suchen mit Ergebnissen die deutlich über das hinaus gehen was der markt bis dato hergibt.
Die Pipelines :
Akademisch :
Die Selbst Kritik
Ich behaupte NICHT das meine Software perfekt ist. Das ist sie nicht. Ich behaupte auch nicht das sie in Jeder Disziplin jedes X beliebige tool weltweit schlägt.
Aber ich behaupte folgendes : Ich habe ein Stand Alone BYOK Open Source Deep Research Tool gebaut das suchen für einen Bruchteil der kosten von regulären Abo oder API Deep Researchers leistet.
Das signifikant tiefere und detailliertere Analysen bietet als jedes andere Tool. Das neben eine regulären Modus einen " Akademischen Deep Research Modus" hat welches Analyse berichte in einer bisher ungekannten tiefe und Evidenz liefert und gerne mal +200.000 Zeichen erreicht. Und ich behaupte das es dadurch , und durch die Art der Kontext Weitergabe die ich implementiert habe deutlich mehr " kausale zusammenhänge erkennt" als die Big Player Tools am markt.
Aber es ist auch klar :
Es wird Bugs geben. Es wird Sachen geben die noch nicht perfekt funktionieren. Aber ich bin dran und entwickle es stetig weiter. Insbesondere wenn man Solo an Programmen Arbeitet ist es unheimlich schwer alle Edge Cases ab zu decken und für jedes Problem im voraus das Passende Error Handling ein zu Bauen.
Es Gilt aber auch : Entwicklung braucht Tester und Feedback. Und hier kommt ihr ins spiel. Ich lade jeden Entwickler , Forscher oder einfach nur interessierten ein : testet die Software. Challenged sie. Challanged mich. Damit ich das bestmögliche daraus machen kann - einerseits um meinen eigenen Anspruch zu genügen , aber auch um der Welt ein Tool zur Verfügung zu stellen das wirklich leistet was es verspricht.
Damit es nochmal sehr Deutlich erwähnt wurde : Es Handelt sich um ein Open Source Projekt mit einer AGPL 3.0 Lizenz. Weder wird an der Software Geld verdient , Noch Befinden sich Ads in ihr oder Referal Systeme. Es ist ein 100%iges Community Projekt das ich der Welt zur Verfügung stelle. Die einzigen Kosten die entstehen sind jene die ihr Pro Research mit euren eigenen API Key Zahlt.
Die Kosten Pro Deep Research liegen mit dem Empfohlenen vor eingestellten Modellen über Openrouter bei 5-10 Cent Pro Research. Solltet ihr Leistungsfähigere Modelle Nutzen Steigen die Kosten entsprechend.
Hier ist das Repo: https://github.com/IamLumae/Project-Lutum-Veritas
Seit dem Launch am Freitag (also in ~48 Stunden) hat das Projekt 16 Stars, 3 Forks, 215 Clones und Traffic von Hacker News, latent.space und deeplearning.ai erreicht – worauf ich sehr stolz bin. Ich freue mich über weitere Tester und Feedback, gerne auch über Stars oder Forks auf GitHub. Lasst mich wissen was gut läuft und was noch verbessert werden muss!
Meine Letzten worte ? Nennt mich gerne Narzisstisch. Das ist mein Antrieb aber ich behaupte :
Die Messlatte für Deep Research Software Liegt ab heute ein kleines Stück Höher.