Google censurerar allt.

turtle sa:
Som sagt jag bad inte om dina frågor, kolla upp vad empiri betyder, och använd sedan det för at överbevisa den empiri jag lagt fram.
Du spelar så smart men missförstår de simplaste uttalanden, man kan nästan tro du gör det med flit.

Sluta nu gå OT här, har du något bevis för bollen går du till rätt tråd. Annars tar jag förgivet att du inte har något.
Precis som du säger är det OT här, men det kanske känns bättre att klaga på mig här istället för i de rätta trådarna där de som läser bara behöver skrolla lite för att se hur du ignorerar obekväma frågor? Som sagt, svara i de trådarna istället för att tjafsa om det här.
 
turtle sa:
Du är försumbar.



Att det av någon anledning skulle vara omöjligt att lägga till fler sökresultat tror jag inte på en sekund, om det nu är så så får någon annan förklara det för mig, "sugerkuken" kan jag omöjligt ta seriöst.

Vet du något om hur kod faktiskt fungerar och vilka begränsningar som finns?
När man söker i en sökmotor så delas sökningen upp på flera servrar, det är alltså inte en enda server som hanterar det och vad som faktiskt skulle hända om man faktiskt returnerade mer än ett visst nummer är att man skulle få i princip en DoS då systemet skulle överbelastas.
 
Ramzez sa:
Vet du något om hur kod faktiskt fungerar och vilka begränsningar som finns?
När man söker i en sökmotor så delas sökningen upp på flera servrar, det är alltså inte en enda server som hanterar det och vad som faktiskt skulle hända om man faktiskt returnerade mer än ett visst nummer är att man skulle få i princip en DoS då systemet skulle överbelastas.

Nej, inte en aning.


Så vad är detta vissa numret ungefär?
 
turtle sa:
Nej, inte en aning.


Så vad är detta vissa numret ungefär?

Okej, kod fungerar efter en viss egen logik ibland. Och de operationer som sker i bakgrunden kan vara olika krävande beroende på olika faktorer

Om man håller sig på någorlunda låga nummer så blir det inga problem men ju högre upp man kommer desto mer ökar risken. Tänk så här: När du söker på t.ex. Google så skickas det ut en begäran till flera olika servrar som då returnerar 10 svar per server. Dessa 10 svar per server sorteras av en algoritm. Vid sida två så ökas antalet med 10 så du får 20 osv. Så när du kommer upp till sidan 50 så kommer du att vara uppe i 500 resultat per server som måste sorteras. Tänk då att du har 20 servrar. 500*20=10000. Det blir lite ohållbart i längden.
 
Ramzez sa:
Okej, kod fungerar efter en viss egen logik ibland. Och de operationer som sker i bakgrunden kan vara olika krävande beroende på olika faktorer

Om man håller sig på någorlunda låga nummer så blir det inga problem men ju högre upp man kommer desto mer ökar risken. Tänk så här: När du söker på t.ex. Google så skickas det ut en begäran till flera olika servrar som då returnerar 10 svar per server. Dessa 10 svar per server sorteras av en algoritm. Vid sida två så ökas antalet med 10 så du får 20 osv. Så när du kommer upp till sidan 50 så kommer du att vara uppe i 500 resultat per server som måste sorteras. Tänk då att du har 20 servrar. 500*20=10000. Det blir lite ohållbart i längden.

Nu hänger jag inte med så bra i det du säger, men det låter som du säger; dom kan men är för snåla? Och då pratar vi om nått så rikt som google.
 
turtle sa:
Nu hänger jag inte med så bra i det du säger, men det låter som du säger; dom kan men är för snåla? Och då pratar vi om nått så rikt som google.

Nej det är inte det jag pratar om.
Det är snarare tvärtom, att de trots all sin rikedom inte kan påverka hur koden faktiskt fungerar och vad den gör och vilka begränsningar som finns.
 
Ramzez sa:
Nej det är inte det jag pratar om.
Det är snarare tvärtom, att de trots all sin rikedom inte kan påverka hur koden faktiskt fungerar och vad den gör och vilka begränsningar som finns.

Men med fler servrar kan dom ge fler resultat, eller?
 
turtle sa:
Men med fler servrar kan dom ge fler resultat, eller?

Flaskhalsen ligger snarare på kodnivå i algoritmen som måste sortera och hålla ordning. Skulle man ha tusen sidor så skulle algoritmen behöva hålla koll på 10000 resultat eftersom den måste se till att resultaten inte upprepas. Detta skulle innebära så många anrop att systemet skulle bli överbelastat. Du får ju tänka på att det är tusentals personer som är inne och söker samtidigt.
 
Ramzez sa:
Flaskhalsen ligger snarare på kodnivå i algoritmen som måste sortera och hålla ordning. Skulle man ha tusen sidor så skulle algoritmen behöva hålla koll på 10000 resultat eftersom den måste se till att resultaten inte upprepas. Detta skulle innebära så många anrop att systemet skulle bli överbelastat. Du får ju tänka på att det är tusentals personer som är inne och söker samtidigt.

Jaja, jag får erkänna mig totalt okunnig och överlåta diskussionen till nån annan. Om tråden nånsin blir intressant och folk börjar skriva i den så kan ni radera mitt svammel så tråden blir mer läsvänlig. Men jag står fast vid att jag tycker fler resultat bör synas, behöver inte va tusentals, men iaf fler. Adjö.
 
Topp